Handbuch CoScience/ Druckversion

Aus Handbuch.io

Handbuch_CoScience/_LivingBook

Inhaltsverzeichnis


Handbuch CoScience/Gute wissenschaftliche Praxis

Autoren: Margo Bargheer, Birgit Schmidt

Einführung

Unser Wissenschaftssystem kombiniert Akteure und Infrastrukturen, doch in erster Linie stellt wissenschaftliches Handeln einen dialogischen, häufig medial vermittelten Kommunikationsprozess dar. Ziel dieses Prozesses ist Erkenntnisfortschritt. Damit dies gelingt, braucht es Verlässlichkeit der Strukturen, etwa bei der Ausstattung mit Ressourcen, vor allem aber Verlässlichkeit in der Kommunikation. Die Grundlage einer so gestalteten Wissenschaft müssen daher Vertrauen und Redlichkeit bilden. So betonte es auch die von der Deutschen Forschungsgemeinschaft (DFG) eingesetzte Kommission „Selbstkontrolle in der Wissenschaft“ gegen Ende der 1990er Jahre. Die Kommission und ihre Empfehlungen resultierten aus einem Skandal um die Krebsforscher Friedhelm Herrmann und Marion Brach, der seinerzeit nicht nur die Universität Ulm zutiefst erschütterte. Über ein Jahrzehnt hinweg hatten diese Forscher ihre Daten manipuliert sowie Ideen und Ergebnisse anderer Forschergruppen kopiert und in zahlreichen wissenschaftlichen Publikationen verwendet. [1] Der Fall zeigte in beklemmender Deutlichkeit, dass hier nicht nur persönliches Versagen zweier Menschen vorlag, sondern dass die eigentlich notwendige Selbstkontrolle der Wissenschaft einer kriminellen Energie von Akteuren nicht entgegengewirkt hatte. An die Seite der Ahndung wissenschaftlichen Fehlverhaltens mussten auch wirksame Maßnahmen zu ihrer Vermeidung treten. Solche Maßnahmen können persönlich motiviertes Fehlverhalten wie die unredlich gefertigten Dissertationen politischer Akteure wie zu Guttenberg oder Koch-Merin nur schwerlich verhindern. Manipulierte Publikationslisten in Drittmittelanträgen oder der japanische Fall von Datenmanipulation in der Stammzellforschung – unter anderem durch einen Hinweis auf verdächtige Bilddaten auf der Peer-Review-Plattform PubPeer aufgedeckt[2] – , verdeutlichen jedoch, dass die heutigen Bedingungen des wissenschaftlichen Arbeitens erheblichen Druck auf die Akteure ausüben. In dem Bestreben, in der Wissenschaftskonkurrenz zu bestehen, bedienen sich einige unredlicher Methoden, sei es aus Nachlässigkeit, Fahrlässigkeit, Absicht oder sogar Vorsatz. Dass hierbei der Übergang fließend sein kann und daher bereits unabsichtliche Fehler zu ahnden sind, betonte bereits C. P. Snow in seiner 1959 erschienenen Wissenschaftsnovelle The Affair, die auf einem realen Betrugsfall aus den 1930er Jahren um den Physiker Emil Rupp beruht:

The only ethical principle which has made science possible is that the truth shall be told all the time. If we do not penalize the false statements made in error, we open up the way, don’t you see, for false statements by intention. And of course a false statement of fact, made deliberately, is the most serious crime a scientist can commit.[3]

Prinzipien guter wissenschaftlicher Praxis

Redliches wissenschaftliches Verhalten wird zwar als unerlässlich für die Wissenschaft betrachtet, jedoch ist man sich der Fehlbarkeit der Akteure bewusst und benötigt daher eine klare Differenzierung zwischen 'richtig' und 'falsch', was durch das Begriffspaar 'gute wissenschaftliche Praxis' (englisch research integrity ) und 'wissenschaftliches Fehlverhalten' (englisch research misconduct) ausgedrückt wird. Prinzipien guter wissenschaftlicher Praxis formulieren Standards und Handlungsleitlinien für einen verantwortungsvollen Umgang mit den Prozessen und den Beteiligten der wissenschaftlichen Arbeit. Angelehnt an den European Code of Conduct for Research Integrity[4] listen wir hier die Prinzipien guter wissenschaftlicher Praxis auf:

  • Ehrlichkeit in der Präsentation von Forschungszielen und -ergebnissen, insbesondere unter Hinweis auf die verwendeten Methoden und Prozesse.
  • Verlässlichkeit in der Durchführung der Forschung (sorgfältig und mit Aufmerksamkeit für Details) sowie in der Kommunikation von Ergebnissen (vollumfänglich, ohne Verzerrungen/Bias).
  • Objektivität: Interpretationen und Schlüsse müssen auf Fakten und Daten beruhen, die einer Prüfung standhalten. Die Sammlung, Analyse und Interpretation der Daten ist transparent und nachvollziehbar hinsichtlich der wissenschaftlichen Argumentation zu gestalten.
  • Unabhängigkeit der Forschung von beauftragenden oder interessierten Dritten, von ideologischen oder politischen Gruppierungen, von ökonomischen oder finanziellen Interessen.
  • Offene Kommunikation über die Ergebnisse der wissenschaftlichen Arbeit gegenüber der Fachgemeinschaft und der allgemeinen Öffentlichkeit. Hierfür ist eine geeignete Speicherung und Zugänglichmachung der Daten erforderlich.
  • Sorgfaltspflicht hinsichtlich der Teilnehmer und Gegenstände der Forschung, seien es Menschen, Tiere, die Umwelt oder kulturelle Objekte. Forschung basierend auf menschlichen oder tierischen Beteiligten sollte immer die Prinzipien von Respekt und Fürsorge beachten.
  • Fairness in der Referenzierung von verwendeten Vorarbeiten, die Rechte und Interessen der Kollegen beachtend.
  • Verantwortung für die nachwachsende Wissenschaftlergeneration: Die Ausbildung und Betreuung junger Wissenschaftlerinnen und Wissenschaftler ist auf Standards für die Betreuung zu gründen.[5]

Um diese Prinzipien effektiv zu implementieren, empfiehlt der European Code of Conduct for Research Integritynach Handlungsfeldern geordnete Regeln für gute wissenschaftliche Praxis:

  1. Daten: alle primären und sekundären Daten sind in einer sicheren und abrufbaren Form zu dokumentieren und zu archivieren. Die Daten sollten zur Überprüfbarkeit den Kollegen zugänglich sein. Dabei ist die Freiheit der Wissenschaftler zu garantieren, zu wählen, mit wem sie zusammenarbeiten.
  2. Verfahren: jede Forschung sollte in einer Weise durchgeführt werden, die Fehler aus Nachlässigkeit, Eile und Unachtsamkeit vermeidet. Wissenschaftler sollten ihre aus Förderanträgen eingegangenen Verpflichtungen einhalten. Mit der Umwelt ist sorgfältig und ressourcenschonend umzugehen. Auftraggeber und Sponsoren sind über die rechtlichen und ethischen Verpflichtungen des Wissenschaftlers in Kenntnis zu setzen, inklusive der Wichtigkeit, Ergebnisse zu publizieren. Datenschutzbestimmungen sind einzuhalten. Förderzuwendungen sind angemessen transparent zu machen (z.B. in Publikationen und Forschungsberichten).
  3. Verantwortung: alle Subjekte der Forschung – Menschen, menschliches Material und Tiere oder Gegenstände und Artefakte – sind mit Respekt und Sorgfalt zu behandeln. Gesundheit, Sicherheit oder Wohlergehen lebender Wesen dürfen nicht unnötig gefährdet werden. Entsprechende Vorgaben für den Umgang mit diesen Forschungssubjekten sind einzuhalten. Tiere sollten in der Forschung nur eingesetzt werden, wenn alternative Methoden als inadäquat erwiesen sind und der zu erwartende Nutzen den Schaden übersteigt.
  4. Publikationsprozess: Ergebnisse sind in einer offenen, transparenten sowie akkuraten Weise und so schnell wie möglich zu veröffentlichen, es sei denn dass ein berechtigter Schutz des geistigen Eigentums eine Verzögerung erfordert (z.B. Patentierung). Alle Autoren, falls nicht anderweitig gekennzeichnet, müssen voll für den Inhalt der Publikation verantwortlich zeichnen. Gast- oder Ehrenautorenschaft (guest or ghost authorship) sind nicht akzeptabel. Die Nennung und die Reihenfolge der Autoren sollte mit allen Beteiligten vereinbart werden, idealerweise zu Beginn des Publikationsprojektes. Alle Autoren müssen Interessenkonflikte benennen. Intellektuelle Beiträge weiterer Personen sollten genannt und korrekt zitiert werden. Ehrlichkeit und Richtigkeit ist in der Kommunikation mit der Öffentlichkeit und den Medien zu gewährleisten. Finanzielle und andere Förderung sollten angegeben werden.
  5. Begutachtung: Editoren oder Gutachter mit potentiellen Interessenkonflikten sollten eine Mitarbeit im Publikationsprozess ablehnen oder diesen der Leserschaft mitteilen. Gutachter sollten objektiv und sachlich kommentieren und beurteilen und dabei die gebotene Vertraulichkeit im Verfahren einhalten. Gutachter sollten nicht ohne Einwilligung der Autoren Gebrauch von Erkenntnissen oder Materialien aus den ihnen begutachteten Manuskripten machen. Dieselben Regeln sind bei der Begutachtung von Förderanträgen oder Bewerbungen um Stellen, Beförderung oder anderweitige Anerkennung zu beachten.

Dass es beim Begutachten wissenschaftlicher Publikationen oder Anträgen Regelungsbedarf gibt, verdeutlicht zum Beispiel der „Open Science Peer Review Oath“ vom Oktober 2014[6], der angelehnt an den Eid des Hippokrates Gutachtern Hilfestellung bietet, worum es eigentlich bei der Begutachtung wissenschaftlicher Arbeit geht: nämlich gemeinsam an einem integren und verantwortungsvollen Erkenntnisprozess zu arbeiten.

Transparenz über die Beiträger im Forschungs- und Publikationsprozess

Wissenschaftliche Ergebnisse sind oftmals das Ergebnis der Zusammenarbeit vieler Beteiligter. Der Publikationsprozess erfordert, dass diese Zusammenarbeit formalisiert dargestellt wird, indem z.B. Autoren und Beiträger in bestimmter Form zu nennen sind. Zur Wahrung der guten wissenschaftlichen Praxis sollten alle am Forschungs- und Publikationsprozess Beteiligten entsprechend in ihren verschiedenen Rollen gewürdigt und korrekt genannt werden. Zahlreiche Zeitschriften offerieren inzwischen die Möglichkeit, die Autoren und andere Beiträger explizit zu kennzeichnen[7]. Die wesentlichen Rollen seien hier kurz vorgestellt:

  • Autor: trägt einen wesentlichen Teil zur Konzeption der Arbeit und/oder der Analyse und Interpretation der Daten bei, trägt zur Niederschrift und/oder Revision bei, bestätigt die Endfassung und zeichnet verantwortlich für wesentliche Teile des Werkes.[8]
  • Datenmanager: erhebt die Daten, selektiert, säubert, dokumentiert und archiviert diese.
  • Datenanalyst: selektiert, bereinigt, analysiert und visualisiert die Daten, um daraus mittels verschiedener wissenschaftlicher Methoden Schlüsse zu ziehen.
  • Projektsponsor: sorgt für die notwendigen Ressourcen des wissenschaftlichen Vorhabens
  • Wissenschaftlicher Leiter: leitet das wissenschaftliche Vorhaben und steuert die Beiträge der Beteiligten.

Mit dem Ziel, einen Standard zu etablieren, stellt derzeit das Projekt CRediT eine ausführliche Taxonomie von Rollen zur Diskussion. Diese umfasst insgesamt vierzehn verschiedene Rollen: Konzeptualisierung, Methodologie, Software, Validierung, formale Analyse, wissenschaftliche Untersuchung, Bereitstellung von wissenschaftlichen Materialien und Ressourcen, Datenkuratierung, Schreiben des Entwurfs, Review und Editierung des Textes, Visualisierung, Supervision, Projektadministration und schließlich Fördermittelakquise. Mittels einer Online-Umfrage wurde diese Klassifikation bereits einem ersten Test unterzogen.[9]

Was versteht man unter wissenschaftlichem Fehlverhalten?

Wissenschaftliches Fehlverhalten lässt sich grundsätzlich als „Verhalten von Wissenschaftlern, das unbeabsichtigt oder beabsichtigt gegen ethische oder wissenschaftliche Standards verstößt“ definieren [10, FN 3, S. 3]. Zur Verbesserung der Übersichtlichkeit haben wir die Formen des Fehlverhaltens vereinfacht und in eine Tabellenform gebracht, auch wenn die Zuordnung in der Praxis sich oft unübersichtlich und mehrschichtig darstellt. Wissenschaftliches Fehlverhalten lässt sich wie folgt klassifizieren[10].

Typologie von Fehlverhalten

Unlauterer Umgang mit Ergebnissen

  • Erfundene Ergebnisse oder Daten (data fabrication)
  • Verfälschte Ergebnisse (data falsification; unvollständige oder unzulässig interpretierte Daten, unlautere Datenauswertung)
  • Unredlicher Umgang mit geistigem Eigentum wie widerrechtliches Aneignen des geistigen Eigentums von Anderen (Ideendiebstahl, Fremdplagiat) oder Mehrfachveröffentlichung von eigenen Ergebnissen ohne Nennung der Primärquelle („Eigenplagiat“)

Unlauteres Forschungsverhalten

  • Unzulässige Forschungsmethoden (Gefahr für Forschungssubjekte, Verstoß gegen Datenschutz oder Tierschutz, Gefahr für Umwelt oder Mitakteure)
  • Unzulänglicher Versuchsaufbau bzw. unzulängliches Forschungsdesign
  • Unzulängliche Verarbeitung von Messergebnissen und Primärdaten

Fehlverhalten im Datenmanagement

  • Unzulängliches Forschungsdatenmanagement: Mangelnde bzw. mangelhafte Archivierung und Dokumentation von Primärdaten, materiellen Daten, Proben, Artefakten und Laborbüchern
  • Zurückhalten von Daten gegenüber der wissenschaftlichen Community oder Öffentlichkeit wider besseres Wissen
  • Widerrechtliches Verweigern von Daten

Fehlverhalten im Publikationsprozess

  • Autorschaft ohne ausreichenden Beitrag zur Publikation, „Ehrenautor“
  • Verweigern berechtigter Autorenschaft
  • Unangemessene Autorenreihung
  • Unangemessene Partitionierung von Ergebnissen „Salamitaktik“
  • Unkorrekte (unvollständige oder gefälschte) Publikationslisten
  • Versäumnis, Interessenskonflikt zu publizieren

Soziales Fehlverhalten

  • Sabotage oder Behinderung der Arbeit Anderer
  • Behinderung der wissenschaftlichen Arbeit Anderer durch Missbrauch von Herausgeberschaft / Gutachtertätigkeit
  • Zustimmungsverweigerung wider Treu und Glauben
  • Missbrauch von Abhängigkeitsverhältnissen
  • Unzulängliche Betreuung des wissenschaftlichen Nachwuchses
  • Soziale Übergriffe und Diskriminierung

  • Vertrauensbruch oder Unterlassen des Einholens von Einverständnis­erklärungen
  • Decken des wissenschaftlichen Fehlverhaltens Anderer aus persönlichen Gründen oder Vorteilsnahme
  • Unredlicher Umgang mit „Whistleblowern“
  • Absichtliches oder fahrlässiges Anschuldigen Anderer wegen wissenschaftlichen Fehlverhaltens

Administratives Fehlverhalten

  • Verstoß gegen Verwendungsrichtlinien
  • Erschleichen von Drittmitteln

  • Verschwendung von Drittmitteln oder Grundausstattung aus Fahrlässigkeit oder persönlicher Gier

Ein Teil des beschriebenen wissenschaftlichen Fehlverhaltens stellt einen Gesetzesbruch dar, etwa Betrug, Verstoß gegen den gesetzlich geregelten Datenschutz oder Verleumdung, was die eindeutige Beurteilung des Fehlverhaltens und dessen Ahndung erleichtert. Anders als in der gesetzlich geregelten Rechtsordnung gilt beim Verdacht auf wissenschaftliches Fehlverhalten jedoch nicht die Unschuldsvermutung und damit vorrangige Beweispflicht der Anklage. Vielmehr gilt, dass die wissenschaftlichen Akteure aktiv mitwirken müssen, um einen Verdacht auszuräumen. Diese Umkehrung der Beweislast wird aus der Selbstverpflichtung zur Einhaltung der Guten wissenschaftlichen Praxis hergeleitet, die für alle Wissenschaftlerinnen und Wissenschaftler an Forschungseinrichtungen und Hochschulen bindend ist, etwa durch formalisierte Verfahren im Rahmen der Arbeitsaufnahme oder durch verbindliche Ordnungen und Satzungen. Diese Regeln werden als so verbindlich angesehen, dass auch ein unwissentlicher Verstoß gegen die Gute wissenschaftliche Praxis geahndet werden kann. Damit wird der hohen Bedeutung von Vertrauen und Redlichkeit Rechnung getragen, welche diese für die Wissenschaft haben. Das Gros der wissenschaftlichen Fehlverhaltensfälle wird wohl unauffällig unter den Beteiligten geklärt, auch wenn zu befürchten ist, dass bereits dies nur diejenigen Fälle sind, in denen ein Fehlverhalten überhaupt auffällt oder geäußert wird. Umfragen [11] und Erfahrungen aus unseren eigenen Lehrveranstaltungen zeigen nämlich, dass wissenschaftliches Fehlverhalten in einem Klima der Angst und Abhängigkeit ausgezeichneten Nährboden findet und dementsprechend oft gedeckt bleibt, weil die Opfer oder Zeugen des Fehlverhaltens sich als machtlos empfinden oder es de facto sind. Dieser traurigen Tatsache trägt das System der Ombudsleute (Ombudsman, Ombudsfrau) Rechnung. Der Begriff stammt aus dem Schwedischen und bezeichnet von einer Institution eingesetzte Vertrauenspersonen, welche im Wissenschaftssystem auf Augenhöhe und unter dem Siegel der Verschwiegenheit zunächst beraten und Lösungswege aufzeigen sollen, wenn ihnen ein Verdacht von wissenschaftlichem Fehlverhalten zur Kenntnis gebracht wird. Ombudsleute sollen nicht an der Klärung und Ahndung beteiligt sein, sondern im Einverständnis mit den Anzeigenden den Fall an Untersuchungskommissionen übergeben, auch wenn in der Realität hier nicht immer sauber getrennt wird. Eskaliert ein Fall, weil er sich im Laufe der Untersuchung bestätigt oder im Zusammenhang mit einer Publikation bereits öffentlich geworden ist, greifen in der Regel festgelegte Selbstkontrollmechanismen der wissenschaftlichen Einrichtungen. Ist ein Fehlverhalten belegt, führt dies in der Regel zu Konsequenzen an der Einrichtung. „So … werden im Rahmen der rechtlichen Möglichkeiten die im Einzelfall erforderlichen dienst-, arbeits-, hochschul-, zivil- oder strafrechtlichen Maßnahmen durch die Präsidentin oder den Präsidenten veranlasst“, regelt es die Göttinger Ordnung [12]. Auch die Deutsche Forschungsgemeinschaft hat klare Verfahrensregeln. Je nach Art und Schwere des festgestellten Fehlverhaltens kann der Hauptausschuss schriftliche Rügen bis hin zu mehrjährigen Antragssperren verhängen, aber auch die Rücknahme von Förderentscheidungen sowie den Ausschluss in DFG-Gremien beschließen. Unabhängig davon kann es auch zu weiteren zivilrechtlichen Forderungen oder strafrechtlichen Konsequenzen kommen.

Gründe des Fehlverhaltens und mögliche Abhilfe

Für wissenschaftliches Fehlverhalten lassen sich zahlreiche dem Wissenschaftsbetrieb immanente Gründe aufzählen, wie problematische Abhängigkeitsverhältnisse und hoher Konkurrenzdruck vor allem zu Beginn von wissenschaftlichen Laufbahnen, ausgeprägter Publikationsdruck bei der Fortsetzung einer Karriere („publish or perish“), der hohe Druck laufend Drittmittel einzuwerben, sowie die immer stärker geforderte Inszenierung und Vermarktung wissenschaftlicher Ergebnisse. Entsprechende Maßnahmen im Sinne einer „Entschleunigungsstrategie“ können zur Abhilfe beitragen: die Eindämmung der Publikationsflut, eine dauerhafte und verlässliche Grundfinanzierung der Wissenschaft, eine stärkere Gewichtung der qualitativen (statt quantitativ-bibliometrischen wie Impact Factor) Beurteilung der wissenschaftlichen Leistungen [13], eine Ächtung von strategischer Autorenschaft, die Eindämmung von fremdverfassten Drittmittelanträgen, eine transparente und sorgfältige Darstellung der Datenerhebung sowie die Vermeidung von kurzen Zeitverträgen.[14] Die folgende Tabelle bezieht sich weniger auf kriminelle Energien oder persönliche Geltungssucht von wissenschaftlichen Akteuren, sondern versucht vielmehr, systemimmanente Gründe zu identifizieren, denen neben Durchsetzung von Regeln und der Selbstkontrolle langfristig nur über eine Änderung der Rahmenbedingungen beizukommen ist.

Mögliche Gründe und Rahmenbedingungen von wissenschaftlichem Fehlverhalten

Unlauterer Umgang mit Ergebnissen

  • Mangelnde Anerkennung von negativen oder widersprüchlichen Ergebnissen, „positive bias“ bei Verlagen und Institutionen
  • Problematische Anreiz- und Evaluierungssysteme (z.B. Impact Factor)
  • Ausbildungsmängel und problematische Praktiken in der Forschungsumgebung
  • Hektik und Kontrollmangel

Administratives Fehlverhalten

  • Unzulängliche Standards und Normen am Arbeitsplatz, mangelndes Controlling
  • Fehlende Infrastruktur zum Projekt- und Forschungsdatenmanagement
  • Ausbildungsmängel
  • Fehlende Konzepte zu kollaborativem Arbeiten und Nachnutzung von Ergebnissen

Fehlverhalten im Publikationsprozess

  • Problematische Abhängigkeitsverhältnisse
  • Hoher Konkurrenzdruck
  • Mangelnde Regelungen auf der Verlagsseite
  • Problematische Anreiz- und Evaluierungssystem (z.B. Impact Factor)
  • Unzulängliche und intransparente Forschungsinformationsstrukturen

Soziales Fehlverhalten

  • Problematische Anreiz- und Evaluierungssysteme
  • Problematische Arbeitsbedingungen (Ressourcenmangel, Konkurrenzdruck)
  • Intransparente Verfahren von Mittelvergaben, Begutachtung und Evaluierung (Kartellbildungen, Oligopole)
  • Mangelhafte Strukturen zur Betreuung des wissenschaftlichen Nachwuchses
  • Mangelndes Problembewusstsein und Klima der Ignoranz („unser Stall ist sauber“)


Was erwarten die Forschungsförderer?

Abbildung: DFG - Verfahren bei Verdacht auf wissenschaftliches Fehlverhalten

Die DFG setzte sich Ende der 1990er Jahren im genannten Fall Hermann/Brach mit einem besonders schwerwiegenden wissenschaftlichen Fehlverhalten auseinander und löste diese Vertrauenskrise in der für sie als Selbstverwaltungsorgan der Wissenschaft typischen Weise: eine internationale Kommission erarbeitete Empfehlungen – in der Form von Verhaltensregeln für den „Normalbetrieb“ von Wissenschaft und Verfahrensregeln für die Aufdeckung und Ahndung von abträglichen Verhaltensweisen. Diese Regeln der „Selbstkontrolle der Wissenschaft“ sollen hier nicht ausgeführt werden [siehe 17], sie umfassen interpersonelle Komponenten (Betreuung des wissenschaftlichen Nachwuchses etc.), den Umgang mit wissenschaftlichen Ergebnissen und Produkten (Publikationen, Daten), der Begutachtung (Peer Review) sowie ein System der vertrauensvollen und vertraulichen Regelung von Konfliktfällen (Ombudspersonen).

Im Juli 2013 veröffentlichte die DFG einige Ergänzungen der DFG-Empfehlungen von 1998. Insbesondere wurde eine neue Empfehlung zu Hinweisgebern (Whistleblower) aufgenommen: äußern Wissenschaftler einen Verdacht auf wissenschaftliches Fehlverhalten, so dürfen ihnen daraus keine Nachteile für ihr wissenschaftliches oder berufliches Fortkommen entstehen. Zum Schutz der Hinweisgeber und der Betroffenen unterliegt die Arbeit der Ombudspersonen höchster Vertraulichkeit. Die DFG besteht dabei darauf, dass Hinweisgeber sich mit ihrem Verdacht nicht zuerst an die Öffentlichkeit wenden und bezeichnet diesen Vorgriff selbst als eine Verletzung der Prinzipien guter wissenschaftlicher Praxis. Gerade dieser Aspekt wird kontrovers diskutiert, weil er der Arbeit von Enthüllungsplattformen wie VroniPlag die Grundlage entziehen könnte.[15] Auch andere Empfehlungen wurden überarbeitet, etwa hinsichtlich der Aufbewahrung von Primärdaten (u.a. Regelung von Nutzungsrechten, Aufbewahrungsdauer und Dokumentation), der Betreuung des wissenschaftlichen Nachwuchses und der Autorenschaft (deutliche Abgrenzung von Autoren und Beiträgern).

Wie gehen wissenschaftliche Einrichtungen vor?

Die deutschen Hochschulen und außeruniversitären Forschungsorganisationen haben alle den DFG-und HRK-Empfehlungen entsprechende Richtlinien und ein System von Ombudspersonen bzw. Gremien installiert.[16][17] Die HRK empfiehlt ihren Mitgliedern zur Prävention und Mediation ein aus mindestens drei Personen bestehendes Ombudsgremium, an das sich Hochschulangehörige in Fragen guter wissenschaftlicher Praxis und vermutetem Fehlverhaltens wenden können. Es wird dabei als Aufgabe der jeweiligen Hochschule angesehen, „dass die Ombudspersonen in ihre Arbeit bestmöglich eingeführt werden und dass sie in der Einrichtung bekannt sind.“ Wie Kommissionen zusammengesetzt sind und Verfahren organisiert werden, liegt im Ermessen der Hochschulen. Wenn aber Verfahren wegen wissenschaftlichen Verhaltens notwendig werden, sollen sie „im Interesse aller Beteiligten mit hoher Stringenz und in zeitlich überschaubaren Rahmen durchgeführt werden“.[18] Die Ombudspersonen/-gremien in den Institutionen finden zudem in dem Ombudsmann für die Wissenschaft[19] und dem europäischen Netzwerk von Research Integrity Offices enrio.eu Unterstützung und Gelegenheit zum Austausch.

Welche Rolle spielen Verlage?

Verlage spielen eine zentrale Rolle bei der Qualitätssicherung von Publikationen, indem sie eingereichte Beiträge auf ihre grundsätzliche Eignung prüfen, den Begutachtungsprozess organisieren und zusammen mit den Herausgebern neue Standards etablieren wie z.B. die Veröffentlichung und Begutachtung der zugrunde liegenden Daten. Gleichzeitig haben Verlage in den hochrangigen Journals, in denen eine Publikation für Autoren besonders karriereförderlich ist, eine ausgeprägte Tendenz zur Veröffentlichung von aufsehenerregenden oder sogar bahnbrechenden Ergebnissen und damit einen katalytisch wirkenden "positive bias". Kommt es nun zu einem wissenschaftlichen Fehlverhalten im Zusammenhang einer Publikation, ist damit auch die Qualität der Arbeit des jeweiligen Verlags in Frage gestellt, was einen Reputationsverlust nach sich ziehen kann. Zahlreiche Zeitschriften und Verlage sind deshalb Mitglied des Committees on Publication Ethics (COPE)[20], das Leitlinien für den Umgang mit Autoren, Gutachtern, Editorial Boards und allen Qualitätssicherungsverfahren veröffentlicht hat. Regelmäßig ergibt sich im Publikationsprozess die Notwendigkeit, nach der Veröffentlichung Fehler zu korrigieren, die dann als Korrekturen („Corrigenda“) oder Widerrufe (“retractions”) erscheinen und mitunter dem wissenschaftlichen Fehlverhalten zuzuordnen sind. So zeigen Stichprobenuntersuchungen auf der Basis von biomedizinischen und lebenswissenschaftlichen Publikationen in der Datenbank PubMed[21], dass die Überzahl solcher Meldungen nicht auf der Basis von Fehlerkorrekturen erfolgt (ca. 1/5 der Fälle), sondern auf Fälle von nachgewiesenem oder vermutetem Betrug, einer Mehrfachpublikation oder Plagiat (zusammen ca. 2/3).[22] Der Blog Retraction Watch[23] sammelt seit 2010 Widerrufsfälle, um diese breiter bekannt zu machen, den Umgang mit diesen Fällen zu dokumentieren und solche Zeitschriften und Verlage zu beobachten, in denen diese Fälle gehäuft auftreten. In den letzten Jahren haben sich zudem Werkzeuge wie CrossCheck (in Zusammenarbeit mit der Plagiat-Erkennungssoftware iThenticate)[24] etabliert, mit denen Verlage und Zeitschriftenherausgeber prüfen können, ob bereits ein ähnlicher Artikel vom selben oder einem anderen Autor veröffentlicht wurde, um Eigen- und Fremdplagiate aufzudecken.

Einen weitergehenden Ansatz verfolgen COPE, das Directory of Open Access Journals (DOAJ), die Open Access Publishers Association (OASPA) und die World Association of Medical Editors (WAME) mit den „Principles of Transparency and Best Practice in Scholarly Publishing“[25]. Diese Leitlinien sollen die Qualitätsstandards im Publikationswesen und zugleich die Filterfunktion der initiierenden Mitgliedsorganisationen stärken. Denn obwohl allgemein die gegenseitige Begutachtung, das „peer review“, als unerlässlich für die Qualitätssicherung wissenschaftlicher Publikationen gilt, ist der Prozess prinzipiell fehlerbehaftet und vor allem wegen seiner Intransparenz in der Kritik.[26] Einen neuen und vielversprechenden Ansatz stellt daher das Open Peer Review dar, bei dem zusammen mit der finalen Publikation – zum Teil in einem stufenweisen Prozess – die ursprüngliche Einreichung, die Kommentare der Gutachter (ggf. mit Namen), die Antwort des Autors und Kommentare der Leser veröffentlicht werden (vgl. z.B. Copernicus Publications, Frontiers, BMJ Open und eLife in unterschiedlichen Ausprägungen). Parallel zum verlagsseitig organisierten Begutachtungsprozess operieren Peer Review Plattformen wie Publons und Peerage of Science[27] , indem sie die Gutachtertätigkeit in den Mittelpunkt stellen und Reviews sammeln, die vor oder nach der Publikation erfolgen. Damit erheben sie die Gutachten selbst in den Rang eines Forschungsoutputs und setzen Anreize für Gutachter, diese zum Teil ihrer Curriculum Vitae zu machen (z.B. via Verknüpfung mit ORCID wie bei Publons).

Bewusstseinsbildung beim wissenschaftlichen Nachwuchs

Zentral für den wissenschaftlichen Nachwuchs ist die Praxiserprobung der eigenen Kenntnisse in der wissenschaftlichen Arbeit und je nach Disziplin ggf. die Realisierung erster Publikationen. Hierbei ist es wichtig, gute wissenschaftliche Praxis zu fördern und sicherzustellen – das heißt zu vermitteln, welche Regeln es zu beachten gilt und auf die man sich berufen kann, sowie Unterstützung in Zweifelsfällen und bei Konflikten anzubieten. Auch wenn sich wissenschaftliches Fehlverhalten schon allein wegen der in Abschnitt „Gründe des Fehlverhaltens und mögliche Abhilfe“ genannten Missstände wohl nie ausmerzen lässt, kann unserer Meinung nach die Bewusstseinsbildung als eine Stärkung des wissenschaftlichen „Immunsystems“ gelten, welches Wissenschaftler befähigt, dem bestehenden Druck besser gewappnet zu sein und Versuchungen nicht nachzugeben. Und es ist dabei nicht nur das Klima der Redlichkeit und des sozialen Miteinanders zu erhalten, sondern gleichermaßen die Verlässlichkeit der Ergebnisse als Grundlage weiteren wissenschaftlichen Handelns.

An deutschen Universitäten wird der guten wissenschaftlichen Praxis daher zunehmend Aufmerksamkeit gewidmet, insbesondere im Kontext von Graduiertenzentren oder -akademien[28]. So hat die Goethe Universität Frankfurt eine Umfrage zum Bewusstseinsstand unter Doktoranden durchgeführt und erstellt derzeit ein e-Learning Tool zum Thema „Good Scientific Practice during the PhD“.[29] Einen praktischen Überblick für Doktoranden für den Bereich des Publizierens mit Hinweisen zu guter Praxis bietet die von norwegischen und dänischen Bibliotheken aufgebaute Plattform PhD on Track.[30]

Ein Curriculum für Lehrveranstaltungen zum Thema wurde erstmals 2008 vom Ombudsman für die Wissenschaft in Auftrag gegeben.[31] Dieses ist inzwischen mehrfach überarbeitet sowie fachübergreifend angelegt und setzt auf frühzeitige Sensibilisierung des wissenschaftlichen Nachwuchses. Dieses beispielhafte Curriculum erarbeitet anhand von Fallstudien (die häufig auf realen Fällen beruhen) die zentralen Themen der guten wissenschaftlichen Praxis, etwa den Umgang mit Daten, Autorenschaft und Publikationsprozess, Forschungskarrieren und Nachwuchsbetreuung, Interessenskonflikte, Ursachen von und Umgang mit Fehlverhalten, Ombudswesen und Förderung der Guten wissenschaftlichen Praxis in der eigenen Einrichtung. Im englischen Sprachraum gibt es ein vielfältiges Angebot an Lernmaterialien und Kursen, auf die hier gleichfalls hingewiesen sei.[32]

Um möglichst viele Nachwuchswissenschaftler nachhaltig zu schulen, initiierte das Präsidium der Universität Göttingen 2012 auf der Basis des genannten Curriculums[33] ein 60-stündiges Training „train the teacher“, das Lehrende aus allen Fakultäten und übergreifenden Einrichtungen (Graduiertenkollegs, Bibliothek, Hochschuldidaktik etc.) befähigte, ihrerseits Lehrveranstaltungen zur guten wissenschaftlichen Praxis anzubieten. Grund für dieses Vorgehen war die Erkenntnis, dass gute wissenschaftlichen Praxis vor allem eine Frage der Bewusstseinsbildung ist, die nicht hinlänglich in wenigen Doppelstunden im Frontalunterricht vermittelt werden kann, sondern fachspezifisch zu vermitteln ist und erst in der persönlichen Auseinandersetzung nachhaltig wirkt. Die Praxiserfahrung zeigt, dass eine Auseinandersetzung an mehreren Punkten in der Ausbildung die größte Wirkung entfaltet, indem während oder gegen Ende des Masterstudiums eine allgemeine Einführung in das Thema erfolgt, die mit einer intensiven Lehrveranstaltung während der Promotion oder ersten eigenen wissenschaftlichen Arbeit vertieft wird. Wenn die Teilnehmenden während einer der intensiven Lehrveranstaltung äußern, dass in ihren Instituten oder Laboren noch kein ausreichendes Bewusstsein zur guten wissenschaftlichen Praxis oder sogar zweifelhafte Praktiken existieren, verdeutlicht dies die Notwendigkeit, auch die bereits etablierten Wissenschaftler in die Bewusstseinsbildung zur Wahrung der guten wissenschaftlichen Praxis einzubeziehen. In Göttingen händigt die Präsidentin Ulrike Beisiegel – die selbst lange Jahre als Ombudsperson für die Wissenschaft fungiert hat – allen Neuberufenen persönlich die Ordnung zu Sicherung der guten wissenschaftlichen Praxis aus. Dies mag nur ein kleiner symbolischer Akt sein, doch er verdeutlicht die Verbindlichkeit des Regelwerks und die Notwendigkeit eines Klimas des Vertrauens.

Ausblick

Die Regeln für gute wissenschaftliche Praxis sind stark miteinander verzahnt, lassen sich zum Teil jedoch auch gezielt separat adressieren. So entwickeln im Bereich Forschungsdaten derzeit zahlreiche wissenschaftliche Einrichtungen differenzierte Leitlinien sowie Infrastrukturen und Dienste, um Wissenschaftler und Wissenschaftlerinnen bei der Umsetzung von guter Praxis zu unterstützen.[34] Wissenschaftlerinnen und Wissenschaftlern steht heute ein breites Angebot an technischen Lösungen wie Datenbearbeitungs- und Visualierungssoftware (vielfach Open Source), Versionierungssysteme sowie digitale Speicherlösungen und Repositorien zur Verfügung.[35] Diese unterstützen beim Umgang mit Forschungsdaten, indem sie die Dokumentation von Prozessierungsschritten und das Prinzip der Reproduzierbarkeit („Reproducible Research“) zum Bestandteil des wissenschaftlichen Erkenntnisprozesses machen: von der Auswahl, Manipulation und Exploration bis hin zur Visualisierung der Daten. Der öffentliche Zugang zu Publikationen und den zugrundeliegenden Daten sowie den verwendeten Methoden und Werkzeugen wird zunehmend zu einer Grundbedingung guter wissenschaftlicher Praxis – nur so lassen sich die wissenschaftlichen Ergebnisse und Daten prüfen und von anderen weiter verwenden (im Sinne von „Open Science“). Auch die Praxis der Begutachtung wird selbst zu einem Kontinuum und endet nicht mit der Veröffentlichung wie oben im Kontext von Reviewplattformen bereits erläutert.

Diese Methoden zu definieren und zu lehren sowie zum guten Standard der Wissenschaft zu machen, obliegt der Wissenschaftsgemeinschaft selbst. Wissenschaftsförderer und Verlage sowie weitere Akteure tragen jedoch durch ihre enge Zusammenarbeit mit Wissenschaftlerinnen und Wissenschaftler und ihre jeweiligen Anreizsysteme und Dienstleistungen entscheidend dazu bei, diese nachhaltig zu etablieren. Dass es dabei nicht um eine Überreglementierung der Wissenschaft und ihrer Akteure geht, sei noch einmal verdeutlicht. Damit Wissenschaft das Vertrauen in sich selbst und das der Öffentlichkeit genießt, muss sie redlich betrieben werden. Dies betrifft vor allem die Ergebnisse von wissenschaftlichem Handeln, welche Mensch und Umwelt heute und in Zukunft beeinflussen, seien es Klimaforschung, Armutsberichte oder medizinische Forschung. Auf die Redlichkeit des zugrunde liegenden Erkenntnisprozesses sollen und müssen wir uns verlassen können.




Handbuch CoScience/Literatur recherchieren und verwalten

Kontributoren: Mareike König, Martin Mehlberg


Ob in Forschungs- oder Publikationsprojekten: Recherche ist essenzieller Bestandteil im Prozess des wissenschaftlichen Arbeitens, und das nicht nur am Anfang eines Projektes, sondern immer wieder und zu unterschiedlichen Projektmomenten. Wer forscht, möchte wissen, was schon geforscht wurde, welche Methoden für ein Projekt anwendbar sind, welche Begrifflichkeiten verwendet werden und welche inhaltlichen, formalen und methodischen Klippen es gegebenenfalls zu umschiffen gilt. Die Verwaltung der gefundenen Quellen ist Teil der Recherche und unter anderem eine wichtige Voraussetzung für korrektes Zitieren. Beim kollaborativen Arbeiten ist das Teilen der recherchierten Information wünschenswert, um den Wissenstand zu homogenisieren und Doppelarbeit zu vermeiden. In vernetzten Projekten besteht die Besonderheit darin, die Recherche so durchzuführen, dass das Ergebnis, also die gefundenen Informationen, allen Projektmitgliedern transparent ist.

Über die Grundlagen (individueller) wissenschaftlicher Informations- und insbesondere Literaturrecherche ist an anderer Stelle bereits vielfach geschrieben worden. Der folgende Text beschreibt Punkte, die für das Recherchieren, Verwalten und Teilen wissenschaftlicher Literatur und ihrer Quellen im Kontext des vernetzten Arbeitens hilfreich sind. Der Fokus liegt hier auf Literatur. Informationen zur Recherche von Forschungsdaten finden Sie im Kapitel Daten sammeln und verarbeiten.


Generelles Verständnis

Wissenschaftliche Erkenntnisse bauen aufeinander auf. Ideen anderer werden weiterverwendet und -entwickelt. Wichtig ist dabei die Abgrenzung eigener Gedanken und Entwicklungen von Gedanken und Entwicklungen anderer. Das etablierte Mittel zur Lösung dieser Anforderung ist die Zitation – fremde Gedanken werden zitiert und mit einer Quelle versehen, ebenso verwendete Methoden. Dadurch haben sich Zitationen zur "Währung der Wissenschaft" entwickelt. Wissenschaftliches Arbeiten erfordert die Kennzeichnung von Zitaten und die vollständige Angabe aller verwendeten Quellen. In (virtuellen) Teams besteht die Herausforderung darin, jedem Teammitglied die Wichtigkeit dieser Aufgabe zu verdeutlichen.

Suche in digitalen Inhalten

Digitale Datenrepräsentation bedeutet nicht nur eine Änderung der Art und Weise, wie Inhalte gespeichert und verfügbar gemacht werden, sie ändert auch die Verfahren, mit denen die Daten durchsucht und abgerufen werden können. Im analogen Zeitalter waren die Möglichkeiten, nach Texten mit spezifischen Inhalten zu suchen, beschränkt. Es gab Bibliothekskataloge mit ihren 'Records' (Einträge im Zettelkatalog). Auf der Suche nach einem bestimmten Text half es nicht, nur eine bestimmte Zeile zu kennen.

Durch zunehmende Verfügbarkeit originär digitaler Volltexte sowie durch umfassendes Scannen und die Anwendung von OCR-Software (OCR steht für Optical Character Recognition) bei ehemals lediglich analog vorliegender (also papierbasierter) Literatur kann ein Text, aus dem man nur den 'Schnipsel' einer einzigen Zeile kennt, gefunden werden. Darüber hinaus ermöglicht die (unter 'Linked Data' subsumierte) Vernetzung von Informationsquellen im Internet neue Formen der Recherche außerhalb des reduzierten Suchraums eines Bibliothekskatalogs.

Suchstrategien

Meistens kennt man weder das gesuchte Informationsobjekt noch dessen genaue Bezeichnung und oft weiß man nicht, wo es zu finden ist und wie die nötige Suchanfrage für das sogenannte 'known-item' exakt formuliert wird. Ähnlich gestaltet es sich, wenn nicht nur ein Objekt, sondern eine größere Ergebnismenge gewünscht wird und umfassende Informationen zu einem exakt bestimmbaren Thema gesucht werden. Im Gegensatz dazu ist die explorative Suche – also eine Suche, welche die durch Links hergestellten Beziehungen zwischen den Quellen zur Navigation benutzt – eher ungerichtet, das heißt, man hat keine exakte Vorstellung von der Ergebnismenge oder man weiß zwar ungefähr, wonach man sucht, kann die Anfrage jedoch nicht exakt formulieren.

Die Art der Information, nach der man sucht, kann selten in präzise und zielführende Suchbegriffe gefasst werden. Wird die Suchanfrage als Text in natürlicher Sprache behandelt, wird gemäß einer Volltextsuche also nur nach deskriptiven Schlüsselworten gesucht, ist die Ergebnismenge (in Bibliothekskatalogen) relativ gering.

Bibliothekskataloge und Suchmaschinen

Immer mehr wissenschaftliche Zeitschriften stellen bibliografische Daten wie Inhaltsverzeichnisse, Abstracts und Keywords frei ins Internet. Dadurch bieten Suchmaschinen mit der Volltextsuche und der Möglichkeit zur explorativen Suche einen gravierenden Unterschied zur Recherche in traditionellen Bibliothekskatalogen oder in anderen bibliothekarischen Online-Portalen. Der Suchraum dieser Internet-Suchmaschinen umfasst einen großen Teil der im Internet frei verfügbaren Informationsquellen. Er ist also nicht wie in Bibliotheken auf die von der Bibliothek zur Verfügung gestellten und bibliothekarisch erfassten Medien beschränkt. Im Gegenzug sind viele gedruckte Medien in Internet-Suchmaschinen nur schlecht oder gar nicht auffindbar. Sie können Ihre Literaturrecherche auf den Webseiten oder Portalen einer Bibliothek beginnen (auch wenn dies nur noch ein Prozent der Benutzer tun[36]) oder aber direkt in wissenschaftlichen Suchmaschinen wie BASE oder Google Scholar starten, insbesondere wenn Sie nur über 'Textschnipsel' als Ausgangspunkt für die Suche verfügen. Da die Ergebnisse je nach Fachdisziplin stark variieren, verwenden Sie zusätzlich Fachdatenbanken, Produkte wie WISO, Scopus oder Web of Science, die zum Teil aktueller sind als Google Scholar.

Zugang beachten

Ein in virtuellen Teams mitunter nicht beachteter Aspekt ist derje nach Standort beziehungsweise IP-Adresse und eventuell vorliegenden Campuslizenzenunterschiedliche Zugang zu den Volltexten der recherchierten Publikationen, sofern es sich nicht um Open-Access-Publikationen handelt.

Konsens über Quellen

Je nach Fragestellung sind konkrete Informationsquellen mehr oder weniger geeignet, um verwertbare Ergebisse zu generieren. Obwohl Wikipedia durch die Zeitstempelfunktion[37] eigentlich gut zitiert werden kann, ist die Zitierfähigkeit von Wikipedia durchaus umstritten.[38] Gleiches gilt beispielsweise für Angaben von Meinungsforschungsinstituten, Parteien oder Webseiten von Nichtregierungsorganisationen (NGOs). Ob etwas zitierfähig ist, sollte allen Beteiligten klar sein. Klären Sie möglichst frühzeitig, welche Informationsquellen für Ihre kollaborative Arbeit 'legitim' sind. Wenn ein Teammitglied sich lange mit der Sammlung von Quellen aufhält, die die anderen nicht akzeptieren, kann wertvolle Zeit verschwendet werden.

Finden Sie also einen Konsens, wie recherchiert wird und was als legitimes Informationsmittel gilt.[39]

Alert-Dienste

Ein Alert für die Suchanfrage folksonomy recommender in Google Scholar.

Alert-Dienste halten Sie über ein bestimmtes wissenschaftliches Thema auf dem Laufenden und helfen Ihnen, den einmal recherchierten Forschungs- und Wissensstand aktuell zu halten.

Dies kann auch das Nachverfolgen der Zitationen eigener Publikationen sein, um im Diskurs über das eigene Werk reagieren zu können. Wenn die These, die Sie entwickelt haben, von anderen widerlegt wird, möchten Sie dies schließlich erfahren.

Alerts können Sie zum Beispiel bei Diensten wie Google Scholar, Scopus oder Web of Science einrichten oder mit Hilfe eines Feed Readers abonnieren. Darüber hinaus können Ihnen die Tools rund um die sogenannten Altmetrics[40] beim Verfolgen wissenschaftlicher Diskurse behilflich sein. Unter Altmetrics versteht man Alternativen zum Impact Factor und anderen konventionell zur Impact-Messung von wissenschaftlichen Publikationen eingesetzten Metriken, zum Beispiel Erwähnungen von Publikationen in Social Networks wie Twitter.

(Social Media) Monitoring

Informationen, wie mit dem Einsatz der Twitter-Timeline als 'kollaborativer Filter' gezielt fachlich relevanten Benutzern gefolgt werden kann, finden Sie im entsprechenden Artikel.

Literaturangaben speichern

Spätestens wenn Sie Quellen zitieren möchten, ist die Vollständigkeit der Literaturangaben wichtig. Daher sollten Sie schon beim Speichern die Metadaten vervollständigen. Grundsätzlich benötigen Sie mindestens die Angaben, die notwendig sind, um die Quelle später wiederzufinden. Das sind bei Webseiten der Link zur Seite (die URL) sowie das Besuchsdatum, bei 'klassischen' Publikationen Angaben wie Titel, Autor und Jahr. Diese Mindestangaben ermöglichen es Ihnen prinzipiell, die Quelle später wiederzufinden. Sie können jedoch nicht sicherstellen, dass Sie später auf die Literatur zugreifen können, da ein Buch vergriffen oder eine Webseite verschwunden sein könnte. Für eine korrekte Zitationsangabe im Text benötigen Sie darüber hinaus je nach Publikationstyp (zum Beispiel Buch, Artikel in einer Zeitschrift oder ein Konferenzbeitrag) weitere Angaben. Eine Übersicht über die verschiedenen Publikationstypen und die jeweils notwendigen beziehungsweise optionalen Metadaten finden Sie in der englischsprachigen Wikipedia beziehungsweise konkret auf das Beispiel BibTeX bezogen in der deutschsprachigen Wikipedia [41]. Beispielsweise benötigen Sie für eine Monographie die Angaben Autor(en), Titel, Publikationsjahr, Verlag und gegebenenfalls Verlagsort sowie gegebenenfalls die Seitenzahl(en), für einen Konferenzbeitrag dagegen die Angaben Autor(en), Titel, Publikationsjahr, Buchtitel sowie ggf. Herausgeber, Band, Nummer, Serie, Seitenzahlen, Adresse und Organisation, Verlag (siehe Abbildungen).

Bibliothekskataloge, Verlagsportale, Datenbanken und wissenschaftliche Suchmaschinen bieten häufig die Möglichkeit, die Daten der gefundenen Literaturquellen in ein Literaturverwaltungsprogramm zu exportieren oder mindestens zwischenzuspeichern und dann im Programm selbst zu importieren. Allerdings sollte man den Eintrag anschließend stets mit dem Dokument (Buch, Papierkopie, PDF) vergleichen und daraufhin überprüfen, ob er tatsächlich auch vollständig und richtig ist. Diese Daten können dann beim Zitieren weiterverwendet werden (mehr dazu finden Sie im Kapitel Literaturverwaltungsprogramme).


Viele Anwendungen geben Ihnen Hilfestellungen bei der Eingabe, indem Sie notwendige und optionale Angaben hervorheben beziehungsweise die Eingabemaske dem jeweiligen Publikationstyp anpassen. Beachten Sie schon beim Speichern die Gepflogenheiten in Ihrer Disziplin, gegebenenfalls Vorgaben des Herausgebers beziehungsweise Verlags und Anforderungen der verwendeten Anwendung, zum Beispiel zur Schreibung von Personennamen oder zur Verwendung von Abkürzungen bei Zeitschriftentiteln. Neben den Metaangaben kann esinsbesondere bei elektronischen Mediensinnvoll sein, direkt eine Kopie zu speichern. Hierbei ist es wichtig, die Vorgaben des Urheberrechts zu beachten. Das bedeutet insbesondere, dass Sie urheberechtlich geschützte Medien nicht mit Kolleginnen und Kollegen teilen dürfen.

Strukturieren

Tag-Cloud

Ziemlich bald werden Sie sich die Frage stellen, ob und wie Sie die gespeicherten Literaturreferenzen strukturieren können. Bei einer Sammlung von wenigen Referenzen kommt man sicher noch gut ohne weitere Strukturierung aus, aber je früher man damit anfängt, desto besser. Als Methoden zur Strukturierung von Wissen eignen sich beispielsweise Kategorien, Schlagwörter oder Mindmaps.

Schlagwörter (oder Tags) sind frei wählbare Wörter, die Sie für jede Literaturreferenz individuell wählen können und die von sehr vielen Anwendungen unterstützt werden. Im Gegensatz zu hierarchischen Strukturen (wie zum Beispiel dem Verzeichnisbaum im Dateisystem ihres Rechners) erzwingen Sie nicht die Einordnung einer Referenz in eine Kategorie. Fügen Sie so viele Schlagwörter zur Referenz hinzu, wie Sie für sinnvoll erachteneher mehr als weniger. Aspekte, die Sie mit Hilfe von Schlagwörtern beschreiben könnten, sind zum Beispiel der Inhalt oder die Art der Publikation, die Autoren, der Verwendungszweck (wofür Sie die Publikation benötigen) sowie Angaben darüber, wie Ihnen die Publikation gefällt oder was Sie mit ihr noch vorhaben.[42] Später helfen Ihnen und Ihren Koautorinnen und Koautoren die Schlagwörter, Referenzen wiederzufinden, deren Inhalt schnell zu erfassen oder einen Überblick über Ihre Sammlung zu erhalten (zum Beispiel mittels einer Tag-Cloudsiehe Abbildung).

Teilen

Zugriffsoptionen in BibSonomy

In virtuellen Teams ist das Teilen der gesammelten Literatur(angaben) wünschenswert beziehungsweise sogar notwendig. Dabei ist zu unterscheiden, mit wem man teilen möchte. Man kann mit den Koautorinnen und Koautoren beziehungsweise Kollaborateurinnen und Kollaborateuren teilen, um auf dem gleichen Wissenstand zu sein, Doppelarbeit zu vermeiden oder auf interessante Literatur hinzuweisen. Eine andere Art des Teilens besteht darin, seine Literatursammlung öffentlich verfügbar zu machen, und zwar entweder, um gemeinsam eine Wissensbasis zu einem Thema aufzubauen oder um seine Fachcommunity auf interessante Literatur hinzuweisen. Bei den webbasierten Lösungen ist das Teilen meistens Standard: Ihre Literaturreferenzen werden also für die Öffentlichkeit sichtbar gespeichert, falls Sie nicht eine andere Auswahl treffen.

Dies ist jedoch nicht in jedem Nutzungsszenario wünschenswert: Wer mit Interviews oder vertraulichen Informationen umgeht, sollte beachten, dass der Schutz der Daten bei der Speicherung im Internet sichergestellt ist. Auch wenn ein Literaturverwaltungsdienst die Möglichkeit bietet, Volltexte auf Servern zu speichern oder zu synchronisieren, ist dies bei Dokumenten mit persönlichen Informationen (Patientendaten) oder vertraulichen Unterlagen aus Unternehmen nicht empfehlenswert.

Notizen

Viele Literaturverwaltungsprogramme bieten die Möglichkeit, Quellen oder Zitate mit Notizen zu versehen. Schon wenn man alleine an einem Projekt arbeitet, können Notizen oder Zusammenfassungen die Einordnung einer Quelle zu einem späteren Zeitpunkt erleichtern. In Teams ist die Annotation der Quellen auch aus der Sicht der gruppeninternen Kommunikation sinnvoll, etwa wenn angegeben wird, warum eine Publikation in die gemeinsame Literatursammlung aufgenommen wurde. Solche Notizenzum Beispiel "Bitte in Kapitel 3 einarbeiten!" - können ein nützlicher Bestandteil der Projektkommunikation sein (mehr dazu im Kapitel Organisieren). Neben ausformulierten Notizen können Titel in einigen Literaturverwaltungsprogrammen auch bewertet oder mit anderen Titeln verknüpft werden. Bei Bewertungen sollte man mit der gebotenen Sorgfalt vorgehen, da diese (insbesondere, wenn sie öffentlich sind) heikel sein können und die Gefahr von Missverständnissen besteht.

Bewertung einer Publikation

Zitieren

Im Wesentlichen gibt es zwei Arten der Zitation: die wörtliche Übernahme von Textteilen und sinngemäße Zitate. Beim sinngemäßen Zitieren verwenden Sie die Quelle als Bestandteil beziehungsweise Grundlage Ihrer eigenen Formulierungen. Wörtliche Zitate müssen hervorgehoben (in der Regel durch Anführungsstriche), unverfälscht (also 'wörtlich') und unter Angabe der Quelle wiedergegeben werden. Sinngemäßen Zitaten folgt eine Quellenangabe.


Beispiel für eine sinngemäße Zitation[43]

Quellenangaben bestehen meistens aus einem Kürzel, welches auf einen Eintrag im Literaturverzeichnis am Ende des Dokumentes verweist. In einigen Disziplinen ist es auch üblich, die eingeklammerte Quellenangabe im sogenannten Harvard-Format direkt hinter dem Zitat aufzuführen, also zum Beispiel '(Smith 2012: 20)'.

Für die Form des Kürzels und insbesondere die Form der im Literaturverzeichnis aufgeführten Quellenangaben gibt es zahlreiche sogenannte Zitierstile. Die Literaturverwaltungsprogramme Mendeley und Zotero unterstützen beispielsweise über 6.750 dieser Zitierstile auf der Basis der Citation Style Language (CSL). Der zu verwendende Zitierstil wird im Allgemeinen vom Herausgeber beziehungsweise Verleger ihrer Publikation vorgegeben. Die folgende Abbildung zeigt beispielhaft dieselbe Publikation in drei verschiedenen Stilen.

Dieselbe Literaturreferenz in den drei Zitierstilen Chicago, IEEE und PNAS.

Je nach dem von Ihnen verwendeten Literaturverwaltungsprogramm wählen Sie lediglich einen geeigneten Zitierstil aus. Die Formatierung des Dokumentes inklusive Literaturverzeichnis wird dann von der Anwendung durchgeführt.

Weitere Hinweise finden Sie auch in der englischen Wikipedia.



Handbuch CoScience/Literaturverwaltungsprogramme

Autoren: Dorothea Lemke, Astrid Teichert

Phasen des wissenschaftlichen Arbeitens

Welche Rolle spielen Literaturverwaltungsprogramme beim wissenschaftlichen Arbeiten?

Kurz gesagt: Literaturverwaltungsprogramme (im Folgenden LVP) dienen dem Sammeln und Strukturieren von Quellen sowie dem korrekten Zitieren, hier insbesondere dem Erstellen von Literaturlisten und -verzeichnissen nach vorgegebenen Richtlinien (Zitationsstilen).

Neben diesen Kernfunktionen bieten viele Systeme Komponenten zur Recherche in Bibliothekskatalogen und Datenbanken, zum Sammeln, Strukturieren und Visualisieren von eigenen Gedanken, zum Annotieren in PDFs, zur Aufgabenplanung und zur Kollaboration und Vernetzung mit anderen Wissenschaftlerinnen und Wissenschaftlern.

Anhand der folgenden vereinfachten Darstellung des wissenschaftlichen Arbeitens wird gezeigt, wie LVP Sie in den einzelnen Phasen und bei unterschiedlichen Aufgaben unterstützen können.[44] Bitte beachten Sie, dass sich die verschiedenen Programme in ihrem Funktionsumfang unterscheiden. Überlegen Sie sich daher genau, welche speziellen Anforderungen Sie an ein Programm stellen (siehe Kap. “Wie finde ich das richtige Literaturverwaltungsprogramm für mich?”).

Phase 1: Themenfindung/-zuweisung

Egal, ob Sie Ihr Thema selber aussuchen oder mit einem Forschungsthema beauftragt werden, zunächst gilt es zu sondieren, was es bereits an Literatur zum Thema gibt und wie bzw. wo man seine eigene Arbeit in dem Forschungsgebiet einordnen kann. Dazu sind erste Recherchen und ein Einlesen in das Thema nötig. Schon in dieser Phase ist es ratsam, die gefundene Literatur systematisch zu sammeln und zu strukturieren. Sobald das Forschungsthema konkret formuliert wurde, wird eine erste Gliederung erstellt und eine erste Zeitplanung aufgestellt. Eventuell müssen Forschungsanträge geschrieben, für ein Budget gesorgt und Mitforschende gesucht werden.

LVP in der Praxis: In einem LVP können alle Quellen an einem Ort gesammelt und strukturiert werden. Zur Strukturierung der Literatur gibt es hierarchische Kategoriensysteme, die sich bestens eignen, z.B. die Gliederung der eigenen wissenschaftlichen Arbeit abzubilden. Diese können selbst definiert und flexibel angepasst werden, wenn sich die Gliederung während des Schreibens verändert. So haben Sie immer einen guten Überblick über die zu jedem Kapitel bereits gesammelte Literatur und darüber, zu welchen Themen Sie weitere Literatur benötigen. Um die Literatur inhaltlich tiefer zu erschließen, werden Schlagwörter bzw. Tags, Bewertungssysteme u.ä. angeboten. Einige Programme bieten auch die Möglichkeit, eigene Aufgaben anzulegen und zu verwalten. Dabei kann z.T. unterschieden werden zwischen Aufgaben, die sich auf eine Quelle beziehen (z.B. Lesen oder Exzerpieren eines bestimmten Werkes) und allgemeinen Aufgaben, die während des Forschungsprojektes erledigt werden müssen. Einige Programme bieten soziale Netzwerke, über die Sie sowohl interessante Literatur als auch Mitforschende mit ähnlichen Interessensgebieten für einen fachlichen Austausch finden können.

Phase 2: Informationsbeschaffung

In Phase 2 geht es darum, Informationen zu beschaffen. Dies kann durch systematische und umfassende Recherchen in Katalogen, Datenbanken und dem Internet realisiert werden, schließt aber auch die Erhebung von Daten durch Experimente und Umfragen ein.

LVP in der Praxis: Viele LVP bieten die Möglichkeit, aus dem Programm heraus Recherchen in unterschiedlichen Datenbanken und Katalogen durchzuführen. Dieses Vorgehen ist nicht für jede Datenbank möglich, da gerade kommerzielle Datenbanken oft passwort- oder IP-gesichert sind und Ihnen die erforderlichen Informationen zum Teil nicht zur Verfügung stehen. Es ist auch dann nicht immer ratsam, wenn Sie über diese Informationen verfügen, da meist nur eingeschränkte Recherche- und Filtermöglichkeiten angeboten werden. Für eine schnelle Recherche nach den bibliographischen Daten eines schon bekannten Titels eignet sich diese Suche dagegen gut und ist sehr bequem. Die bibliographischen Daten der gefundenen Quellen können mit einem Klick in meistens guter Qualität in die eigene Literatursammlung übernommen werden. Darüber hinaus ist fast immer ein Import der bibliographischen Daten aus Katalogen und Datenbanken möglich. Viele LVP bieten Zusatzprogramme (Add-Ins, Plug-Ins und Co), die den Import von Quellen, darunter auch Webseiten, erleichtern. Einige Programme bieten hier die Möglichkeit, Webseiten als Screenshot oder PDF zu speichern. Die bibliographischen Angaben können Sie mit den von Ihnen auf Ihrer Festplatte gesammelten Volltexten verknüpfen oder auch Links zu Internetquellen angeben, um ein schnelles Auffinden der Texte sicherzustellen. Zum Teil können mit diesen Zusatzprogrammen nicht nur die formalen Angaben der Quelle übernommen werden, sondern auch Inhalte wie Schlagwörter, Abstracts, Literaturlisten oder Textpassagen, die man zitieren bzw. weiterverwenden möchte. Aus diesen Angaben lassen sich weitere Suchbegriffe für die Recherche gewinnen.

Phase 3: Informationsverarbeitung

In Phase 3 geht es ans Eingemachte. Sie lesen, exzerpieren, werten Daten und Quellen aus, Sie bewerten gelesene Literatur und fassen zusammen; so halten Sie wichtige Ergebnisse fest.

LVP in der Praxis: Die meisten LVP bieten eine Bearbeitungsfunktion für die von Ihnen gesammelten PDF-Dokumente, in der Textpassagen markiert und kommentiert werden können. Der große Vorteil im Vergleich zur Bearbeitung von PDFs in einem herkömmlichen PDF-Reader ist, dass die Kommentare durch die Suchfunktion des LVP durchsuchbar werden. Und zwar alle auf einmal, nicht nur die des gerade geöffneten PDFs. Zudem können Sie in Ihrem LVP Quellen bewerten und zusammenfassen, den aktuellen Arbeitsstand dokumentieren, also z.B. welche Publikationen schon ausgewertet sind und welche noch darauf warten. Sie halten wichtige Textstellen als Zitate fest ebenso wie eigenen Ideen. Über das Kategoriensystem, welches die Gliederung Ihrer Arbeit widerspiegeln kann, sehen Sie schnell, für welche Kapitel oder Themen Ihnen noch Literatur fehlt. Hier wird noch einmal nachrecherchiert.

Phase 4: Textproduktion

Jetzt beginnt das große Schreiben. Schreiben, Quellen belegen, korrigieren, redigieren, formatieren, Verzeichnisse erstellen, Nacharbeiten aufgrund der Rückmeldungen z.B. aus einem Peer-Review-Verfahren.

LVP in der Praxis: Für alle, die in Word oder einer alternativen Textverarbeitung (z.B. Open/Libre Office) schreiben, bietet ein LVP den Vorteil, dass man aus einer Vielzahl von vordefinierten Zitationsstilen auswählen kann. Mit Hilfe eines Add-Ins können Sie meist die Zitationen entsprechend des gewählten Stils direkt in Ihre Arbeit einbinden und sich das Literaturverzeichnis automatisch erstellen lassen. Nutzen Sie BibTeX, bieten die gängigen Programme ebenfalls Unterstützung an (siehe Abschnitt Literaturverwaltung für LaTeX-User).

Doch wie war noch mal die genaue Formulierung des Autors xy? Mit Hilfe der Suchfunktion des LVP finden Sie die gewünschte Quelle schnell wieder und können diese problemlos zitieren. Mit einem Klick wird die Quelle in Ihr Dokument eingefügt und das Literaturverzeichnis automatisch aktualisiert. Ebenso einfach können Sie einen Zitationsstil auswählen und wechseln, so dass Zitation im Text und Quellenbeleg im Literaturverzeichnis in gewünschter Form erscheinen. Spätestens zu diesem Zeitpunkt macht sich die gründliche Arbeit und Dokumentation während der Recherche und Auswertung bezahlt.

Phase 5: Verbreitung/Veröffentlichung

Ist die Publikation erst einmal fertig, soll sie auch mit der Fachwelt geteilt und diskutiert werden.

LVP in der Praxis: LVP mit Social-Software-Funktion bieten die Möglichkeit, ein eigenes Forscherprofil anzulegen. In diesem können neben Forschungsschwerpunkten auch eigene Publikationen verzeichnet werden. Forscher/-innen, die Ihrer Tätigkeit folgen, werden über Ihre neue Veröffentlichung sofort informiert.

An dieser Stelle fängt der Kreislauf an sich zu wiederholen. Forscher/-innen lesen und diskutieren Ihre Ergebnisse, werden zu neuen eigenen Studien angeregt ...

Nutzen von Literaturverwaltungsprogrammen

Der große Nutzen von LVP ist, dass Sie immer alle Quellen an einem Ort sammeln und diese gut (durch-)suchbar sind. Funktionsumfang und Fokus der einzelnen Programme sind jedoch unterschiedlich. So sind einige Programme eher darauf ausgerichtet, PDFs zu verwalten und zu bearbeiten (z.B. Read Cube,[45] Qiqqa[46] u.a.), während bei anderen die bibliographischen Daten und die spätere Zitierung der Quellen im Vordergrund stehen (z.B. Citavi,[47] EndNote[48] u. a.).

Typologie der Literaturverwaltungsprogramme

Grundsätzlich lassen LVP sich in drei verschiedene Kategorien unterteilen:[49]

  1. Geschlossene Systeme, bei denen ein einzelner Nutzer seine Daten sammelt und für die Erstellung eigener Publikationen nutzt (z.B. Citavi, Endnote).
  2. Halboffene Systeme, bei denen der einzelne Nutzer die Möglichkeit hat, seine Daten in einem begrenzten von ihm kontrollierbaren Bereich mit anderen Nutzern zu teilen (z.B. RefWorks[50])
  3. Offene (o.a. Social-Software-) Systeme, in denen es einen gemeinsamen Datenpool gibt, der von allen Nutzern gespeist wird und aus dem sich jeder Nutzer seine individuelle Sammlung bzw. Ansicht generiert (z.B. Mendeley[51])

Diese strengen Kategorien bieten nur eine grobe Einteilung der Programme, da sich deren Funktionen in der Praxis selbstverständlich immer weiterentwickeln und sich kombinierte Systeme herausbilden, die sowohl eine Einzelnutzung, als auch das Teilen der eigenen Daten mit anderen erlauben.[52]

Literaturverwaltung für LaTeX-User

Vor dem Schreiben eines längeren wissenschaftlichen Textes sollten Sie sich Gedanken über ein geeignetes Textverarbeitungsprogramm machen. Vor allem bei naturwissenschaftlichen Texten bietet sich das Textsatzsystem LaTeX in besonderer Weise an, da es sich u.a. sehr gut für das Setzen von mathematischen Formeln und Strukturen eignet. Es handelt sich um ein sehr stabiles System, das für alle gängigen Betriebssysteme bereit steht und frei verfügbar ist. Zudem haben Sie mit dem Programm BibTeX die perfekte Ergänzung, um sich Zitationen im Text und das Literaturverzeichnis in einem Zitationsstil Ihrer Wahl automatisch erzeugen zu lassen. Die in Ihrem Text zitierten Publikationen werden dabei aus einer Textdatei mit der Endung .bib herausgesucht. Diese Datei enthält zu allen Quellen die nötigen bibliographischen Angaben wie Publikationstyp, Autor, Titel etc. im speziellen BibTeX-Format. Die meisten Fachdatenbanken und Bibliothekskataloge bieten Ihnen den Export von Datensätzen im BibTeX-Format direkt an. Bitte überprüfen Sie immer, ob die Qualität der exportierten Daten Ihren Erwartungen entspricht.

Literaturverwaltungsprogramm trotz LaTeX?

Ist es trotzdem sinnvoll ein LVP zu verwenden, wenn LaTeX und BibTeX die automatische Formatierung von Kurzreferenzen und Literaturverzeichnis übernehmen?

Selbstverständlich können Sie die BibTeX-Datei als reine Textdatei in einem einfachen Editor bearbeiten. Sie sollten aber daran denken, dass dies bei einer großen Sammlung von Literaturnachweisen mit der Zeit sehr mühsam und unübersichtlich wird. Daher empfiehlt es sich bei längeren Arbeiten in jedem Fall, ein LVP einzusetzen. Dabei können Sie aus einer Vielzahl verschiedener Angebote auswählen, die Ihnen zum Teil lediglich eine graphischen Oberfläche oder aber weitreichende Funktionen zur Verfügung stellen. Einfache Systeme sind beispielsweise BibDesk[53] für Mac- oder KBibTeX[54] für Linux-Betriebssysteme. Diese verfügen über eine übersichtliche Darstellung der Datensätze, Sortiermöglichkeiten und automatisch erzeugte BibTeX-Keys zur eindeutigen Identifikation der Publikationen. Alle LVP bieten Ihnen die Möglichkeit, Datensätze als .bib-Datei zu exportieren. Bitte beachten Sie dabei, dass Sie nach jeder Änderung der Datensätze im LVP diesen Export wiederholen müssen. Mendeley unterstützt darüber hinaus die automatische Synchronisation der .bib-Datei. Sie sollten aber die exportierte .bib-Datei in jedem Fall kontrollieren, da es beim Erzeugen zu Fehlern kommen kann. Es bietet sich an, eine möglicherweise erforderliche Anpassung dieser .bib-Datei erst nach einem abschließenden Export der Daten vorzunehmen, da diese ansonsten bei jedem erneuten Export bzw. Synchronisieren überschrieben würde. Über die bisher beschriebenen Funktionen hinaus unterstützt das betriebssystemunabhängige, kostenfreie Programm JabRef[55] das Einfügen von Publikationsnachweisen in Ihr LaTeX-Dokument direkt. Welche der zahlreichen angebotenen Funktionen von Literaturverwaltungsprogrammen Sie nutzen möchten, hängt selbstverständlich immer von Ihrem eigenen Arbeitsstil ab.

Welche Programme gibt es?

Auswahl der vorgestellten Programme

Da der Markt an LPVs in den letzten Jahren stark gewachsen ist und einem permanenten Wandel unterliegt, werden an dieser Stelle nur die Programme Citavi, Colwiz,[56] Docear,[57] EndNote, JabRef, Mendeley, RefWorks und Zotero[58] vorgestellt. Diese Programme wurden von den Verfassern des Softwarevergleiches Literaturverwaltung[59] in der Annahme gewählt,[60] dass diese auch in Zukunft angeboten und weiter entwickelt werden. Außerdem soll diese Auswahl zuverlässige Programme für Windows-, Linux- und Mac-User bieten. Zudem sollen Lösungen für verschiedene Arbeitsweisen wie das alleinige oder das kollaborative Arbeiten bzw. für die Nutzung von unterschiedlichen technischen Infrastrukturen wie einem einzelnen Rechner oder mehreren auch mobilen Endgeräten aufgezeigt werden.

Neben kostenlosen und kommerziellen Programmen für unterschiedliche Betriebssysteme werden Programme vorgestellt, die speziell auf LaTeX-User ausgerichtet sind. Die folgende Liste hebt besondere Stärken und Schwächen der Programme hervor. Diese Informationen wurden dem Softwarevergleich Literaturverwaltung vom Juni 2014 entnommen, der eine detaillierte Auflistung der Programmfunktionen bietet.[61]

Kommerzielle Literaturverwaltungsprogramme (Citavi, EndNote, RefWorks)

Citavi

Allgemeines:

  • Windowsbasiert, Einzelplatz (Citavi Pro) mit Teamfunktion (Citavi Team)
  • Neben den beiden kommerziellen Versionen bietet Citavi eine kostenlose Version (Citavi Free) mit vollem Funktionsumfang aber einer Beschränkung auf max. 100 Titel pro Projekt an

Stärken:

  • Wissensorganisation: leistungsstarkes Tool zur Organisation von Zitaten und eigenen Ideen
  • Webseiten können als PDF gespeichert werden (zur Archivierung und Dokumentation)
  • Aufgabenplanung: Tool zur Planung von projekt- und quellenbezogenen Aufgaben
  • Sehr gutes Word-Add-In
  • Sehr intuitiv bedienbar, geeignet für alle Nutzer vom Einsteiger bis zum Profi
  • Hohe Datensicherheit in Teamprojekten möglich, da die Daten in der gesicherten Infrastruktur eigener Server liegen können
  • Citavi Picker: nützliches Tool zur Speicherung von Quellen und deren Inhalten
  • Bisher einzigartig: Zitationsstil-Finder
  • Installation auf USB-Stick möglich[62]

Schwächen:

  • Bisher keine Webversion (Release einer Webversion ist für 2015 geplant)
  • Für andere Betriebssysteme als Windows nur über eine virtuelle Maschine nutzbar[63]
  • Teamversion nur über ein gemeinsames Laufwerk nutzbar (eingeschränkter Personenkreis)

EndNote

Allgemeines:

  • Lizenzpflichtige Einzelplatzversion für Windows und Mac; Webversionen
  • Vollwertige Webversion: Für Kunden des Web of Science und EndNote Desktop kostenlos für 2 Jahre nutzbar
  • Kostenlose Webversion “EndNote Basic”: Funktionsumfang, Speicherplatz und Zahl zur Verfügung stehender Zitationsstile ist hier eingeschränkt

Stärken:

  • Gutes Word-Add-In
  • Synchronisation mittels Webversion über alle Geräte hinweg
  • iPad-App
  • Referenzen und Ordner können in der Webversion geteilt und im Team bearbeitet werden

Schwächen:

  • Nicht sehr intuitiv bedienbar
  • Datensicherheit in der Webversion nicht vom User beeinflussbar, da man Endnote-eigene Server verwendet
  • Volltexte nicht teilbar (in der nächsten Version X7.2 sollen ganze Libraries inkl. Volltexten geteilt werden können)

RefWorks

Allgemeines:

  • Webanwendung; als Einzel- oder Campuslizenz verfügbar

Stärken:

  • Bewusste Konzentration auf einfache Handhabung
  • Leicht bedienbares Word-Add-In
  • Freigabe von Daten über RefShare möglich und konfigurierbar
  • Bei Campuslizenz zentraler Zugriff auf uni-eigene Zitierstile
  • RefMobile für verschiedene mobile Endgeräte
  • Integrierter RSS-Feedreader
  • RefGrab-It als Bookmarklet oder Browser Plug-In zum bequemen Sammeln von Daten auf Webseiten

Schwächen:

  • Einbindung von Dokumenten (Bildern, PDFs) nur bei Campuslizenzen möglich; Datenvolumen pro Nutzer kann begrenzt werden
  • Datensicherheit nicht vom User beeinflussbar, da man RefWorks-eigene Server verwendet

Kostenlose Literaturverwaltungsprogramme (Mendeley, Zotero)

Mendeley

Allgemeines:

  • Einzelplatz für Windows, Mac und Linux
  • Webversion kostenlos bis 2 GB Speicher, weiterer Speicher gegen Gebühr

Stärken:

  • Ausgeprägte Social-Software-Funktionen
  • Zusammenarbeit in Gruppen gut möglich
  • Auswertung in Altmetrics-Diensten[64]

Schwächen:

  • Keine Recherche in Datenbanken aus der Software heraus
  • Bibliographien können nur durch Copy&Paste der gewünschten Titel erstellt werden (kein direkter Export einer Liste im gewählten Zitationsstil möglich)
  • Umgang mit Nutzerdaten und Urheberrecht steht in der Kritik[65][66]
  • Datensicherheit bei der Webversion nicht vom User beeinflussbar, da man Mendeley-eigene Server verwendet

Zotero

Allgemeines:

  • Einzelplatz für Windows, Linux und Mac; Webportal zusätzlich nutzbar (begrenzter Speicherplatz frei verfügbar, Zukauf möglich)
  • Kann durch Firefox-Extension direkt im Browser integriert werden, einfache Web-Recherchen möglich
  • Besonders für Studienanfänger und Personen mit kleinen Literatursammlungen geeignet
  • Open Source

Stärken:

  • Social-Software-Funkionalitäten über das Webportal
  • Freigabe von Dokumenten über Interessensgruppen, die im Webportal definiert werden können
  • Erstellung von eigenständigen, titelunabhängigen Notizen möglich
  • Daten können auf dem Zotero-Server oder einem eigenen Server gespeichert werden.
  • Webseiten können als Screenshots gespeichert und annotiert werden

Schwächen:

  • Keine Recherche in Datenbanken aus Zotero heraus möglich

Colwiz

Allgemeines:

  • Einzelplatz für Windows, Mac und Linux
  • Webversion

Stärken:

  • Viele Kollaborationsmöglichkeiten (Kalender, Drive zur Datenablage, Gruppen, Profile, Aufgabenverteilung)
  • App für iOS und Android
  • Integrierter PDF-Reader mit vielen Bearbeitungsfunktionen
  • Intuitiv zu bedienen

Schwächen:

  • Referenzen lassen sich nur umständlich mehreren Ordnern zuordnen[67]
  • Nur einfache Suchfunktion innerhalb der eigenen Datenbank
  • Max. 5000 Referenzen, max. 2 GB
  • Fehleranfällig (Absturz der Software und Überlastung der Server; noch im Entwicklungsprozess)

Literaturverwaltungsprogramme speziell für LaTeX-User (JabRef, Docear)

JabRef

Allgemeines:

  • Einzelplatz für Windows, Linux und Mac
  • Kostenlos und Open Source

Stärken:

  • Gute Zusammenarbeit mit verschiedenen LaTeX-Editoren
  • BibTeX-Datei wird automatisch aktualisiert
  • Ranking-, Relevanz- und Prioritätsangaben möglich

Schwächen:

  • Weder read-only Freigabe, noch gemeinsame Bearbeitung möglich

Docear

Allgemeines:

  • Einzelplatz für Windows, Linux und Mac
  • Kostenlos und Open Source
  • Auf Nutzer ausgerichtet, die viel mit der Annotations-Funktion für PDFs arbeiten

Stärken:

  • Sehr gut zum Exzerpieren und Strukturieren von Literatur geeignet (u.a. per Mind-Map)
  • Gute Wordintegration

Schwächen:

  • Relativ hohe Einarbeitungszeit
  • Funktionen der integrierten Literaturverwaltung eingeschränkt gegenüber dem originalen JabRef
  • Erfordert durch Komplexität eine gewisse Technikaffinität

Literaturverwaltungprogramme und Betriebssysteme

Viele der aufgeführten Programme sind für unterschiedliche Betriebssysteme wie Windows, Mac und Linux verfügbar. Einige sind hingegen für die Verwendung mit speziellen Betriebssystemen konzipiert. Ein Beispiel hierfür ist das Windows-basierte System Citavi.

Virtualisierung

Um Citavi in einer alternativen technischen Infrastruktur nutzen zu können, müssen Sie einige spezielle Maßnahmen treffen. So können Sie das Programm auf einem Apple-Rechner beispielsweise mit Hilfe einer virtuellen Umgebung mittels z.B. Parallels, VMware Fusion oder Oracle Virtual Box nutzen. Auf den Internetseiten von Citavi[68] gibt es eine Schritt-für-Schritt-Anleitung zur Installation von Parallels, Windows und Citavi, um eine optimale Nutzung der Komponenten zu gewährleisten. Dabei sollten Sie berücksichtigen, dass es bei den Virtualisierungslösungen kostenlose und kostenpflichtige Versionen gibt. Diese Art der Virtualisierung lässt sich selbstverständlich auch für Linux nutzen, setzt aber voraus, dass Sie zusätzlich zur virtuellen Umgebung eine kostenpflichtige Windows-Distribution verwenden. Wenn Sie die Installation von Windows vermeiden wollen, so besteht die Möglichkeit, die Windows-kompatible Laufzeitumgebung Wine zu verwenden. Diese steht Ihnen kostenfrei für Mac und Linux-Betriebssysteme zur Verfügung. Dabei sollten Sie aber beachten, dass möglicherweise nicht immer die aktuellste Version des Programms unter Wine lauffähig ist. In den einschlägigen Diskussionsforen finden sich derzeit nur Anleitungen zum stabilen Betrieb von Citavi 3.4. unter Wine[69]. Die bisherigen Versuche der Installation der derzeit aktuellen Version 4.4. sind bisher gescheitert. Das Programm Endnote, welches in den Versionen für Mac und Windows vorliegt, kann ebenfalls über Wine auf Linux-Betriebssystemen betrieben werden.

Nachteile

Bei dem Einsatz des LVP in einer virtuellen Umgebung können einige Nachteile auftreten. So kann das System möglicherweise instabil laufen und vergleichsweise langsam arbeiten. Sowohl Citavi als auch Endnote bieten Ihnen für den Einsatz der Programme unter Wine keine offizielle Unterstützung an. Citavi schreibt hierzu, dass kein Anspruch bezüglich der Performanz, Stabilität oder Kompatibilität von Citavi erhoben wird, wenn das Programm unter nicht offiziell unterstützten Bedingungen betrieben wird.[70]

Webbasierte Tools

Besonders unproblematisch in Bezug auf das Betriebssystem sind webbasierte Tools. Diese sind plattformunabhängig, von jedem internetfähigen Endgerät aus nutzbar und eignen sich besonders gut für eine ortsunabhängige Datenhaltung sowie den Austausch mit anderen.

Textverarbeitung

Bei der Installation der LVP sollten Sie beachten, dass Ihnen unterschiedliche Varianten von Plug-Ins bzw. Add-Ins zur Unterstützung der Zusammenarbeit mit Word für Windows oder für Mac und Open- bzw. Libre-Office zur Verfügung stehen. Diese bieten unterschiedlich gelungene Unterstützung beim Einfügen von Zitationen und Literaturverzeichnissen in Ihren jeweiligen Text. Die Literaturverwaltungsprogramme unterscheiden sich auch bei der Tiefe der Unterstützung bei der LaTeX/BibTeX-Nutzung (siehe Abschnitt Literaturverwaltung für LaTeX-User).

Wie finde ich das richtige Literaturverwaltungsprogramm für mich?

Bei der Wahl eines LVP gilt es die eigene Arbeitssituation, die eigenen Anforderungen an den Funktionsumfang des Programmes sowie die eigenen Vorlieben im Handling des Programmes zu berücksichtigen.

Die Arbeitssituation

Schauen Sie sich Ihre eigene Arbeitsumgebung an. Viele Faktoren sind einem so selbstverständlich, dass ihre Relevanz in außergewöhnlichen Situationen in Vergessenheit gerät. Man entscheidet sich schließlich nicht jeden Tag für ein LVP. Folgende Fragen sollten Sie bei Ihrer Entscheidung berücksichtigen:

Betriebssystem/Geräte

Welches Betriebssystem nutzen Sie? Arbeiten Sie immer vom selben Rechner aus oder arbeiten Sie z.B. privat mit einem Mac, bei der Arbeit aber mit einem Windows-Rechner? Dann sollte Ihr Programm für beide Programme verfügbar sein und die Möglichkeit zur Synchronisation bieten. Die gleiche Frage stellt sich, wenn Sie mit Kollegen/-innen gemeinsam an einem Projekt arbeiten. Nutzen Sie neben Ihrem PC weitere Geräte, wie z.B. Tablets? Welche weiteren Geräte verwenden Sie und sind diese kompatibel? Haben Sie auf allen Geräten, mit denen Sie arbeiten, Administrationsrechte, d.h. können Sie dort selber Programme installieren? Gibt Ihnen Ihre Institution hier Vorgaben bei der Wahl von neuen Programmen?

Programme

Welche Programme verwenden Sie für Ihre Arbeit? Sollten diese kompatibel zu Ihrem LVP sein? Welches Textverarbeitungs- bzw. Textsatzprogramm verwenden Sie? Welchen Browser verwenden Sie? Gibt es Add-Ins, Plug-Ins oder entsprechende Austauschformate? Ist es für Sie wichtig, dass das Programm die Daten in einer BibTeX-Datei speichert, die automatisch aktuell gehalten wird?

Lizenzen/Kosten

Gibt es an Ihrer Institution bereits Lizenzen? Entstehen Folgekosten, wenn Sie die Institution verlassen oder mehr Speicherplatz benötigen? Gibt es bestimmte Funktionen, die nur gegen ein (zusätzliches) Entgelt zu erwerben sind? Wie viel sind Sie bereit für ein LVP zu zahlen? Sind Updates und neue Versionen inbegriffen?

Beteiligte

Arbeiten Sie alleine oder im Team? Welche Programme, besonders LVP, nutzen Ihre Kollegen/-innen und warum? Welche Daten sollen geteilt werden (bibliographische Daten, Volltexte, Aufgaben, Zitate und Notizen…)?

Sollen alle die gleichen Rechte haben? Haben alle Zugang zum Programm und zum Speicherort der Daten? Wer pflegt die Daten? Gibt es einen Hauptverantwortlichen?

Datensicherheit

Wie sicher müssen Ihre Daten sein? Arbeiten Sie mit sensiblen Daten, oder können diese in der Cloud gespeichert werden? Haben Sie einen eigenen Server, auf dem Sie die Daten speichern könnten? Können alle Beteiligten auf diesen Server zugreifen?

Der Funktionsumfang

Wie arbeiten Sie? Welche Funktionen sollte ihr LVP dementsprechend haben? Welche wären nice-to-have?

  • Wo recherchieren Sie? Wollen Sie aus dem Programm direkt recherchieren können oder wären Zusatztools, die die direkte Übernahme von Daten aus Datenbanken, Katalogen und Webseiten erleichtern, hilfreicher?
  • Wo lesen Sie Ihre Literatur? Wollen Sie Ihre elektronischen Dokumente direkt im Programm annotieren können oder haben Sie bereits eine andere Lösung? Auf welchen Geräten bearbeiten Sie Ihre Literatur? Rechner, Tablet, E-Book-Reader, ….? Welche Strukturierungsmöglichkeiten soll das Programm bieten? Sind die Strukturierungsmöglichkeiten in verschiedenen Versionen, z.B. in der Desktop-Version und der Web-Version gleich?
  • Brauchen Sie eine Zitate- und Ideenverwaltung?
  • Brauchen Sie eine Aufgabenplanung?
  • Welche Import- und Exportmöglichkeiten soll das Programm bieten?
  • Was soll die Suchfunktion im Programm können?
  • Wollen Sie über das Programm Kontakt zu anderen Forschern aufnehmen oder pflegen?

Support

Wo bekommen Sie Unterstützung, wenn Sie Hilfe im Umgang mit dem Programm benötigen?

Gibt es Kurse zu diesem Programm? Gibt es Selbsthilfematerialien (Handbücher, Skripten, Videos, Foren, …)? Und gibt es diese nur auf werbendem und einführendem Niveau oder auch für fortgeschrittene Anwender? Gibt es Ansprechpartner an Ihrer Institution (z.B. EDV-Abteilung oder Bibliothek)? Bietet der Hersteller selbst ausreichenden Support?

Benutzerfreundlichkeit/Usability

Da die Programme sich im Funktionsumfang einander immer stärker annähern, ist letztendlich entscheidend, welches Programm ihnen von der Handhabung her am besten liegt. Laden Sie sich eine Testversion runter und probieren Sie es aus. Finden Sie alle Funktionen, die Sie brauchen? Ist die Darstellung übersichtlich? Können Sie das Programm Ihren Wünschen entsprechend anpassen?

Literaturverwaltungsprogramme kollaborativ nutzen - Vorteile, Risiken, Möglichkeiten

Vorteile

Referenzen jederzeit für alle verfügbar: Die gesammelte Literatur wird zugänglich für alle an einem zentralen Ort gespeichert statt nur auf den Rechnern der einzelnen Wissenschaftler. Es kann ortsunabhängig gearbeitet werden, was vor allem internationale Kooperationen unterstützt.

Arbeitsersparnis/-teilung: Dadurch, dass alle Referenzen an einem Ort gesammelt und bearbeitet werden, haben Sie im Blick, was Ihre Kollegen schon erarbeitet haben und setzten mit Ihrer Arbeit dort an, wo diese aufgehört haben. Dies erspart Doppelarbeit und fördert den Austausch von Ideen. Zusätzlich lassen sich Aufgaben gezielt im Team verteilen.

Neue Trends im eigenen Forschungsbereich: Bei Programmen, die eine Social-Network-Komponente haben und eine Auswertung nach aktuellen Forschungsthemen vornehmen, können Sie “neue Trends in der eigenen Disziplin anhand von Lese- und Publikationsverzeichnissen anderer Wissensarbeiter kennenlernen.”[71]

Interdisziplinärer Austausch: Durch die herrschende Transparenz werden Sie eventuell auf neue Forschungsgebiete und -gruppen aufmerksam, die Ihr eigenes Fachgebiet eventuell nur am Rande betreffen, aber zu einem fruchtbaren Austausch führen können. So werden Sie auf Themen aufmerksam, die sonst nicht in Ihrem fachlichen Fokus gelegen hätten, Ihre eigene Arbeit aber bereichern können.

Einblick in die Nutzung Ihrer Publikationen durch andere Forscher/-innen: Einige Programme mit Social-Network-Funktion bieten eine Statistikfunktion, die Ihnen einen Überblick darüber gibt, wie oft Ihre eigenen Publikationen von anderen Forschern gelesen und geteilt werden.[72][73]

Rezeption eines Themas: Die von den Plattformusern verwendeten Tags der Quellen geben Aufschluss über das Interesse, die Rezeption und eventuell die Bewertung dieser Leser.[72] Dabei kann ein Vergleich Ihrer eigenen Einschätzung der Publikation bzw. der Forschungsthemas interessant sein.

Empfehlung neuer Quellen: Einige Programme bieten eine Recommender-Funktion, die Sie auf Quellen aufmerksam macht, die andere Wissenschaftler/-innen gespeichert haben, deren Literatursammlung sich mit der Ihren überschneidet.[72]

Führenden Forschern folgen: Social-Network-Funktionen ermöglichen Ihnen, "Entdecker zu entdecken".[72] Sie können damit die Erkenntnisse von führenden Wissenschaftlern/-innen für sich nutzen und auf deren Ergebnissen aufbauen.

Risiken

Sicherheit der Daten: Wenn Sie Ihre Literatur online verwalten, habe Sie nur noch eingeschränkt Kontrolle über Ihre Daten und sind darauf angewiesen, dass der Serverbetreiber diese zuverlässig sichert. Zudem müssen Sie sich darauf verlassen, dass die von Ihnen eventuell vergebenen Zugriffsbeschränkungen auf Gruppenmitglieder auch eingehalten werden und Unbefugte keine Rechte an Ihren Daten erhalten.

Sorgfalt der Teammitglieder: Die Arbeit in einem Team, bei dem alle Mitglieder volle Bearbeitungsrechte haben, erfordert stets Disziplin und Sorgfalt. Dies gilt sowohl für die Eingabe eigener Daten als auch für den Umgang mit den Daten der Kollegen/-innen.

Fehlende Strukturierung und Erschließung: Leicht kann es passieren, dass zwar munter gesammelt wird, sich aber keiner zuständig fühlt, diese Literatur auch zu lesen, auszuwerten und strukturiert abzulegen. Dies kann dazu führen, dass die Literatursammlung aufgrund der Fülle der Daten unübersichtlich und für die einzelnen Teammitglieder unbrauchbar wird.

Inkonsistenz: Wenn im Team nicht genau festgelegt wurde, wie Literatur erschlossen, strukturiert und bewertet wird, z.B. mittels festgelegter Begriffe für Tags/Schlagwörter oder vorher definierter Kriterien für die Bewertung, kann dies schnell zu inkonsistenter Erschließung führen. Dies erschwert jedoch das Weiterarbeiten mit den Quellen.

Administration: Gibt es keinen Administrator, der sich um die Pflege der Daten kümmert und prüft, ob die Regelungen zur Erschließung praktikabel sind und eingehalten werden, führt dies durch Inkonsistenzen und unkontrolliertes Datenwachstum schnell dazu, dass dieses Tool für das Team unbrauchbar wird. Gerade in Institutionen, in denen eine starke Fluktuation unter den Mitarbeitern herrscht, passiert dies besonders leicht.

Langfristige Verfügbarkeit: Entscheidet man sich für ein Programm, macht man sich davon abhängig. Wichtig ist hier also, ob man auch langfristig Zugriff auf die Daten hat und, dass dieses Programm vom Anbieter auch in Zukunft noch betrieben und unterstützt wird. Sie sollten aber in jedem Fall darauf achten, dass Sie ausreichend Exportmöglichkeit für Ihre Daten haben, um diese gegebenenfalls in einer eigenen Infrastruktur zu sichern.

Vielzahl unterschiedlicher Plattformen: Bei der Vielzahl der unterschiedlichen Angebote ist es schwierig, die für das eigene Fach bzw. Wissenschaftsgebiet einschlägige Plattform zu finden. Dies kann schnell dazu führen, dass man sich für viele der Webseiten einen Account einrichtet und sich am Ende nur mehr mit der Administration der eigenen Daten beschäftigt statt mit der eigentlichen wissenschaftlichen Forschung.

Transparenz: Während in vielen Wissenschaftsbereichen ein Austausch von Informationen über Webplattformen wesentlicher Bestandteil der Forschungsarbeit ist, kann es Gebiete geben, bei welchen Sie Ihre Daten lieber unter Verschluss halten möchten. So kann es z.B. bei patentrechtlichen Themen sinnvoll sein, einen Rückschluss auf die Forschungsergebnisse durch die Auswertung von verwendeter Literatur zu vermeiden und erst nach eigener Publikation der Ergebnisse bzw. gewissen Sperrfristen, Informationen offenzulegen.

Möglichkeiten/Fazit

Betrachtet man nun Vor- und Nachteile von kollaborativer Literaturverwaltung wird klar, sie birgt enorme Möglichkeiten, von der Arbeit und den Erfahrungen anderer zu profitieren, sich in der Gruppe effizient zu organisieren und auch trotz räumlicher Entfernung und über Fachgrenzen hinweg gemeinsame Forschungsziele zu verfolgen. Sie birgt aber ebenso Risiken und Abhängigkeiten und erfordert von Ihnen damit mehr denn je einen kritischen und umsichtigen Umgang mit Ihren eigenen Daten.



Handbuch CoScience/TBD

Die Seite TBD (im Netzjargon "to be determined") wird im Handbuch CoScience als Platzhalter für geplante und unabgeschlossene Kapitel oder Unterkapitel verwendet.

Wenn Sie daran interessiert sind, den jeweiligen Text (mit-) zu schreiben, wenden Sie sich bitte an den Book Sprint CoScience.

Handbuch CoScience/Organisieren

Kontributoren: Mareike König


"Vertrauen unter den Partnern in einer VO [Virtuellen Organisation, Anm. der Autoren] ist ein entscheidender Faktor, da weder die rigiden formalen Verpflichtungen wie in einer klassischen, hierarchischen Organisation noch freie Marktbeziehungen innerhalb der VO bestehen."[74]

Dieser Text beschäftigt sich mit dem Organisieren in vernetzten, wissenschaftlichen Projekten. Wir möchten dazu zehn wichtige Punkte für die erfolgreiche Projektorganisation vorstellen. Neben organisatorischen Aspekten werden auch technische Einsatzszenarien erläutert und anhand von Beispielen veranschaulicht.

CoScience-Projekte unterscheiden sich in einigen Punkten maßgeblich von 'herkömmlichen' analogen Projekten. Dabei steht das Arbeiten in virtuellen Umgebungen vor allem unter dem Verdacht weniger verbindlich zu sein als bei der lokalen Vorort-Zusammenarbeit. Dies sollte Konsequenzen für die Projektorganisation haben.

Definieren Sie klare und gemeinsame Ziele und Aufträge

„Projektziele sind die Aufstellung von möglichst quantifizierten Anforderungen, die erfüllt sein müssen, damit ein Projekt als erfolgreich abgeschlossen betrachtet werden kann.“ [75]

Anders gesagt: Ohne eine verständliche Formulierung des Projektziels ist ein Scheitern des Projektes vorprogrammiert. Allen Mitgliedern eines Teams muss jederzeit klar sein, an welchem Punkt das Projekt steht. Die Zieldefinition ist daher elementarer Bestandteil der Projektorganisation. Die Projektziele sollten stets überprüfbar sein. Ist die Projektdefinition unklar oder interpretationsfähig, ist eine Projektbewertung nur schwer möglich. Hat man ein gemeinsames Ziel definiert, ist die Unterteilung in Teilziele oft hilfreich. Dadurch können selbst große Projekte handhabbar werden.

Aus diesen Teilzielen oder 'Meilensteinen' können konkrete Aufgaben entwickelt werden. Aufgaben müssen, wie die Ziele, verständlich und überprüfbar formuliert sein. Darüber hinaus ist es hilfreich, Fristen zu setzen und Abhängigkeiten zu definieren. Wenn Aufgabe A erledigt sein muss, bevor mit der Arbeit an Aufgabe B begonnen werden kann, sollte das den Beteiligten bewusst sein.

Die klare Definition der Ziele und Aufträge sollte natürlich in jedem Projekt höchste Priorität haben. Besondere Aufmerksamkeit sollten Sie dieser Aufgabe jedoch widmen, wenn Ihr Team untereinander nicht in ständigem Austausch steht und die einzelnen Projektteilnehmer (teil-)autonom arbeiten. Bei unklaren Aufträgen ist es nicht unwahrscheinlich, dass Teilaufgaben nicht oder nicht so umgesetzt werden, dass das Projekt mit den Ergebnissen weiterarbeiten kann.

Ziele evaluieren und korrigieren

Geben Sie Ihren Projekten Raum zur Veränderung. Die Festlegung von Meilensteinen und Aufgaben ist wichtig, aber kein Selbstzweck. Wenn es die Gegebenheiten erfordern, kann eine Umformulierung der Ziele unumgänglich sein.

Ein beharrliches Festhalten an ursprünglichen Zielen trotz veränderter Umstände ist selten sinnvoll. Von der (Open-Source-)Softwareentwicklung, in der seit vielen Jahren international und oft nur online vernetzte Kollaborateure in erstaunlicher Effizienz zusammenarbeiten, können CoScience-Projekte in dieser Hinsicht viel lernen. Zum Beispiel vom Agile Manifesto[76], das in Reaktion auf unflexible Projektmanagementstrukturen entstanden ist. Einer von vier Forderungen aus diesem Manifesto lautet: "Responding to change over following a plan".[77]

Benennen Sie Verantwortlichkeiten, Rollen und Verantwortliche

Bei vernetzten Projekten stellt die klare Aufgabenverteilung eine wesentliche Herausforderung dar. Nur wenn die Rollen und Verantwortlichkeiten aller Teilnehmer eindeutig sind, können solche Projekte erfolgreich sein. Die klare Verteilung stellt sicher, dass alle Teilnehmer ein deutliches Verständnis des Projektes haben. Da der kurze Dienstweg bei solchen Projekten oft nicht vorhanden ist, muss genauestens geklärt werden, wer in welchen Situationen Entscheidungen trifft und wer diese Entscheidungen umsetzt. Bei dem Einsatz von Projektverwaltungs- oder Kommunikationsoftware sollten Sie versuchen, diese Rollen und Verantwortlichkeiten eins zu eins abzubilden.

Kommunizieren Sie über und in Ihrem Projekt

„Verwenden Sie Projektmanagement-Software als Werkzeug - nicht als Substitut für eine effektive Planung oder zwischenmenschliche Fähigkeiten.“ [78]

In dezentralen Projekten besteht die Gefahr, dass die Beteiligten über unterschiedliche Informationen bezüglich des Projektes verfügen. Um daraus resultierende Probleme zu verhindern, sollten alle Projektfortschritte (und auch Rückschläge) dokumentiert werden. Dabei ist es wichtig, ein gemeinsames, von allen akzeptiertes Werkzeug zu finden.

Es gibt zahlreiche Tools, die diesen Prozess unterstützen. Neben komplexer Projektmanagementsoftware wie Microsoft Project gibt es zahlreiche webbasierte und auch leichtgewichtigere Alternativen. Je nach Projektumfang und den Vorlieben des Teams können dabei sogenannte Bugtracker[79] sinnvoll sein. Bugtracker stammen ursprünglich aus der Software-Entwicklung und dienen dazu, Fehler in der Software zu melden und deren Beseitigung zu dokumentieren. Einige dieser Bugtracker sind nach und nach um Projektmanagementfunktionen wie Roadmap und Zeiterfassung erweitert worden.

Mantis ist ein Beispiel für einen einfach gehaltenen, webbasierten Open-Source-Bugtracker.

Auch Redmine ist eine webbasierte Open-Source-Lösung, die jedoch einen weitaus größeren Funktionsumfang bietet. Neben der Aufgabenplanung stehen unter anderem ein Wiki zur gemeinsamen Erarbeitung von Dokumenten oder ein internes Blog zur Information des Teams zur Verfügung.

Werkzeuge innerhalb des Bugtrackers Redmine.

Dass eine Software mehr Funktionen aufweist als eine andere, sollte nicht ausschlaggebend für ihre Auswahl sein. Im Gegenteil, ist doch ein simples Werkzeug in heterogenen Teams oft schneller einsetzbar. Und weniger Zeit für technische Erklärungen bedeutet auch, mehr Zeit für die Arbeit an den Inhalten des Projekts zu haben.

Als 'soziales Schmiermittel'[80] für virtuelle Teams eignet sich darüber hinaus der Einsatz von Twitter sehr gut. Anders als beim Chat müssen dabei nicht alle Projektteilnehmerinnen und -teilnehmer gleichzeitig anwesend sein.

Dokumentieren Sie Fortschritte offen und transparent

Eine gute externe Kommunikation der Fortschritte hat bei vernetzten Projekten mehrere Vorteile: Erstens erhöht sie die Verbindlichkeit auf die Teilnehmenden, da die einzelnen Schritte der Projektarbeit von jedem jederzeit einsehbar sind. Zweitens erhöht sie die Identifikation durch die Teilnehmenden und drittens ermöglicht sie das Einholen von externem Know-how.

Außerdem sollte die externe Kommunikation auch als Marketingmaßnahme vor der letztendlichen Fertigstellung der Publikation oder des Projekts verstanden werden. Hierfür eignen sich vor allem Blogs und Social-Media-Kanäle, da diese einfach aufzusetzen und zu verwalten sind. Die Nutzung der neuen Möglichkeiten für eine offene Wissensverbreitung neben den konventionellen Wegen der nicht-elektronischen Publikationen stellt einen weiteren Vorteil der transparenten und offenen Dokumentation des Projektfortschritts dar.

Die Wahl der Instrumente für die Dokumentation sollte sich dabei am Projektrahmen orientieren. Sind Blogs ein gängiges Informationsmedium in der eigenen Fachcommunity, dann ist ein Projektblog ein probates Kommunikationsmittel. Andere Projekte fahren sehr gut mit Mailinglisten, mit Social Networks und Twitter oder auch einer Mischung aus all dem. Für die Dokumentation von virtuellen Treffen und für Protokolle eignen sich sogenannte Etherpads, die als webbasierter Editor die gleichzeitige und kollaborative Bearbeitung von Texten ermöglichen.

Wikidata ist ein gutes Beispiel für ein Projekt, in dem verschiedene Instrumente zur transparenten Projektkommunikation verwendet werden. Wöchentlich wird der Fortschritt des Projektes über eine Mailingliste und im projekteigenen Wiki bekannt gegeben. In der Mailingliste folgt oft ein reger Austausch mit externen Interessierten über die jeweils im Projekt anstehenden Arbeitsschritte. Dies beinhaltet Lob, kann aber auch kritisch sein. Alle Projektmitglieder sollten sich über die Konsequenzen der offenen Projektkommunikation bewusst sein. Mehr Informationen zu den Risiken und Chancen der frühen und externen Projektkommunikation finden Sie im Kapitel Kommunizieren.

Finden Sie eine gemeinsame Sprache

Bei vernetzten Projekten muss von Anfang an klar sein, dass alle Teilnehmerinnen und Teilnehmer denselben Wortschatz verwenden. Denn nicht nur die Ziele müssen unter den Teilnehmern gleich verstanden und kommuniziert werden, sondern auch Begrifflichkeiten und die Art der Kommunikation im Projektverlauf. Dazu eignen sich vor allem strukturierte Formate der Kommunikation von denen wir bereits einige vorgestellt haben. In den regelmäßigen Konferenzen sollte genau darauf geachtet werden, ob alle Teilnehmer nicht nur den gleichen Informationsstand und Projektfortschritt haben, sondern auch von den gleichen Begrifflichkeiten ausgehen. Hier muss der Grundsatz gelten: Lieber einmal mehr nachfragen, um Missverständnisse früh zu vermeiden.

Vor allem in multilingualen Teams muss allen Teilnehmern klar sein, dass Wörter wie scope, stakeholder und so weiter meist unterschiedliche kulturelle und begriffliche Bedeutungen haben. Das gilt auch für viele Begriffe, selbst wenn die Teilnehmerinnen und Teilnehmer die gleiche Sprache sprechen. Deshalb ist es ratsam, im Zweifelsfall mit Umfragesystemen wie LimeSurvey oder anderen offenen Systemen Begrifflichkeiten abzufragen, um einen einheitlichen Stand zu erlangen oder Begrifflichkeiten in einem Wiki gemeinsam zu definieren. Diese Auflistung der kritischen Begrifflichkeiten eines Projekts können darüber hinaus auch für die externe Kommunikation genutzt werden.

Nutzen Sie Werkzeuge und Prozesse, die allen Beteiligten bekannt und einfach zugänglich sind

Generell ist es sinnvoll, in einem Projekt nur Werkzeuge zu verwenden, die allen Beteiligten vertraut sind. Dies gilt umso mehr, wenn die Beteiligten nicht an einem Ort sind. Sitzt man zusammen in einem Raum, in einem Haus, so besteht stets die Möglichkeit, andere Mitarbeiterinnen und Mitarbeiter bei technischen oder organisatorischen Problemen zu Rate zu ziehen. Sitzt man jedoch an unterschiedlichen Standorten, vielleicht sogar in unterschiedlichen Zeitzonen, ist dies nur eingeschränkt oder gar nicht möglich.

Schwierigkeiten, die dabei regelmäßig auftreten sind technische Inkompatibilitäten. Wenn ein gemeinsames Werkzeug gesucht wird, ist zum Beispiel darauf zu achten, dass es für alle zugänglich ist. Ein eigentlich fantastisches Werkzeug für das Betriebssystem Windows ist untauglich, wenn kooperierende Teammitglieder Linux oder Mac OS einsetzen. Deshalb ist der Einsatz von plattformübergreifenden Softwarelösungen für den Webbrowser im Rahmen von CoScience Projekten klar zu empfehlen.

Auch gemeinsame Prozesse sollten allen vertraut sein und transparent kommuniziert werden. Weiß ein Team-Mitglied nicht, was die anderen von ihm erwarten, ist Reibung vorprogrammiert.

Achtung: Selbst bei Werkzeugen, die vermeintlich allen Beteiligten bekannt sind, kann es durch individuell unterschiedliche Arbeitsweisen oder Kenntnisse zu Problemen bei der gemeinsamen Anwendung kommen. Unterschätzen Sie daher nicht die Notwendigkeit, die gemeinsamen Werkzeuge ordentlich einzuführen und den Umgang mit ihnen gegebenenfalls auch zu unterstützen.[81]

Fordern Sie verbindliche Regelmäßigkeiten von allen Beteiligten ein

Regelmäßige Verpflichtungen zum Austausch sind für gemeinsame Forschungs- und Publikationsprojekte im Netz besonders wichtig. Nur regelmäßig stattfindender Austausch mit einem formalisierten Ablauf schafft den Grad an Verbindlichkeit, der für dezentrale Forschungs- und Publikationsprojekte bei vernetzter Zusammenarbeit von besonders hoher Bedeutung ist. Denn gerade bei kooperativer Arbeit über das Netz herrscht eingangs eine Wahrnehmung geringerer Verbindlichkeit vor.

Eine Möglichkeit für einen formalisierten Ablauf stellt die Einführung eines Project Trackers und regelmäßige internetbasierte Telefon- und Audio/Video-Konferenzen dar. Diese können mit offenen Programmen wie Mumble oder geschlossenen Systemen wie Google Hangouts oder Skype veranstaltet werden. Egal welches Tool gewählt wird, ein gemeinsames Verständnis der Informations- und Beschlusslage im Rahmen des regelmäßigen Austauschs ist essentiell, da genau diese fehlende Kommunikation oftmals der Grund für das Scheitern ist.

Wer sich dazu verpflichtet, regelmäßig öffentlich über den Stand des Projektes zu berichten, schlägt somit gleich zwei Fliegen mit einer Klappe.

Archivieren Sie Projekte von Anfang an

Digital gespeichertes Wissen aus vernetzten Projekten birgt immer die Gefahr, die gesammelten Daten und Informationen zu verlieren. Es sollte mit dem Beginn des Projektes darüber nachgedacht werden, wie das Thema Archivierung adressiert werden kann. Eine Dokumentation des gesamten Tuns sollte selbstverständlich sein.

Planen Sie das Scheitern ein

Unser gegenwärtiges wissenschaftliches Reputations- und Karrieresystem honoriert in erster Linie Erfolge in Forschungs- und Publikationsprojekten. Das Scheitern ist dabei selten ein öffentliches Thema und wird selten kommuniziert oder publiziert. Dabei können besonders in vernetzten Projekten alle durch die Offenheit aus dem Scheitern anderer lernen.

Im Rahmen von vernetzten Arbeiten ist es deshalb besonders wichtig, dass von Beginn an ein gemeinsames Szenario für das Scheitern definiert wird, da hier generell oftmals weniger Verbindlichkeit vorherrscht. Dazu sollte auch geklärt werden, dass das Scheitern von allen Teilnehmenden offen als Möglichkeit akzeptiert wird.

Da Projekte häufig an falschen Zielen scheitern, kann nur eine klare, gemeinsame Definition der Ziele, Verantwortlichkeiten und der KPIs (Key Performance Indicators) helfen, das Scheitern früh zu erkennen. Ein klassisches Anzeichen für ein Scheitern ist das Ignorieren und Verschweigen von Problemen innerhalb der Teilnehmergruppen – dem muss entgegengearbeitet werden, denn auch im wissenschaftlichen Rahmen verhindert der rechtzeitige Ausstieg weitere Kosten.

Andere können nur dann aus dem Scheitern lernen, wenn die Möglichkeit des Scheiterns Teil der Projektplanung ist und dieses Scheitern auch kommuniziert wird. Das gilt für Publikationen und Projekte. Oftmals müssen hierfür jedoch Kommunikationsweisen und Leistungsmessungen in der Institution überprüft und überarbeitet werden.

Übrigens: Immer mehr Wissenschaftlerinnen und Wissenschaftler fordern, auch negative Ergebnisse zu veröffentlichen. Inzwischen gibt es sogar Journals wie das Journal of Negative Results in BioMedicine, das ausschließlich Forschungsergebnissen aus 'gescheiterter' Forschung publiziert. Dies ist besonders wichtig für 'negative' klinische Studien mit Patienten, da ein Publication Bias entsteht, wenn selektiv nur die positiven Studien berichtet werden. Insbesondere bei größeren Projekten sollte daher auch bei einem Scheitern die Publikation der Ergebnisse immer ein Ziel bleiben.

Streben sie Projekt-Retrospektiven an

Die Retrospektive im Rahmen von Projekten beschreibt den konstruktiven Rückblick auf das Geschehene. Sie ist ein wichtiger Bestandteil in agilen Projektmanagement-Methoden [82]. Auch im Rahmen von wissenschaftlichen Projekten können diese Rückblicke besonders hilfreich sein, um aus der Vergangenheit zu lernen und für kommende Projekte zu besser zu planen und sollten eigentlich einen festen Bestandteil von Projekten darstellen [83]. Die an einem Projekt beteiligten Forscher und Forscherinnen können in abschließenden Treffen oder bei der Erreichung von Projektmeilensteinen gemeinsam zurückschauen und bewerten, was gut und was schlecht gelaufen ist. Wenn diese Treffen strukturiert ablaufen, können so einfach Aspekte gesammelt und Maßnahmen zur Verbesserung der Zusammenarbeit entwickelt werden.

Diese Verbesserungen können vielschichtig sein: Höhere Produktivität, weniger Fehler, bessere Entscheidungsfindung und Entwicklung von Regeln und vieles mehr [84].

Retrospektiven sollten in den folgenden Schritten durchgeführt werden:

  • Begrüßung, Vorstellung und gemeinsame Klärung der Ziele des Rückblicks
  • Beantwortung der Fragen durch alle Projektmitarbeiter:
    • Wie ist das Projekt gelaufen:
      • Was war gut?
      • Was war schlecht?
    • Was kann (noch) besser laufen:
      • Welche Dinge haben mich behindert?
  • Erfahrung gewinnen:
    • Warum sind die Dinge wie sie sind?
  • Konkrete Maßnahmen beschließen (umsetzbare Maßnahmen nach SMART):
    • Was wollen wir konkret in Zukunft ändern?
  • Dokumentation (alle müssen zu einem gemeinsamen Verständnis kommen)
  • Abschluss

Teilnehmen sollten möglichst viele der Projektbeteiligten und die Retrospektiven sollten nach Möglichkeit von externen Kollegen moderiert werden. Setzt man diese Methode regelmäßig und konsequent ein kann sie ein optimales Mittel zur kontinuierlichen Verbesserung sein.




Handbuch CoScience/Daten sammeln und verarbeiten

Kontributoren: Mareike König, Ulrich Kleinwechter

DOI: 10.2314/coscv1.3

Kollaborative Erfassung, Verarbeitung und Visualisierung von Daten bietet Möglichkeiten, die weit über die eines Individuums hinausgehen. Dabei gibt es unterschiedliche Ansätze: das Sammeln von Daten durch ein Team, die Motivierung größerer Gruppen zum gemeinsamen Sammeln zu einem bestimmten Zweck, aber auch die Nachnutzung von Daten, die in einem anderen Kontext gesammelt wurden. Die hier vorgestellten Werkzeuge und Ansätze dienen oft nicht nur der Erfüllung eines dieser Ansätze, werden aber exemplarisch in jeweils nur einem Abschnitt präsentiert.

Citizen Science - Aktivieren Sie freiwillige Helferinnen

Die Kartierung von Meeresbodenbewohnern in einem großen Areal ist sehr zeitintensiv. Im Projekt Seafloor Explorer wurde versucht, diese Aufgabe so zu fragmentieren, dass sie auch von Personen ohne wissenschafttlichen Hintergrund erledigt werden kann. Diese Art der Aktivierung von Freiwilligen für die wissenschaftliche Arbeit nennt sich Citizen Science[85] und es haben sich schon allerlei Spielarten etabliert. Das Spektrum reicht von der Vogelbeobachtung[86] bis zur Erfassung von 'Lichtverschmutzung'.[87]

Im Projekt Photos Normandie[88] stehen rund 3.000 Fotos von der Landung der Alliierten in Frankreich im Juni 1944 unter einer CC-Lizenz auf Flickr bereit. Personen, Orte, Straßen und Gebäude können dort gemeinsam identifiziert werden.

Bei Projekten dieser Art besteht eine Herausforderung oft darin, diese Aufgabe für Nichtwissenschaftlerinnen und Nichtwissenschaftler interessant zu machen. Das Geo-Wiki Project, in dem nichtwissenschaftliche Personen Satellitenfotos globaler Landnutzung daraufhin untersuchen, ob an einer bestimmten Stelle Landwirtschaft stattfindet, geht diese Herausforderung in Form einer Spiele-App für Smartphones an. Die wissenschaftliche Arbeit wird als Computerspiel verpackt. In einem dazugehörigen Wettbewerb werden unter den besten Mitspielenden Preise verlost.

Achtung: Citizen Science organisiert sich nicht selbst! Die Aktivierung, Motivation und Steuerung einer ausreichend großen Community kann im Gegenteil sogar eine sehr anspruchsvolle Aufgabe sein.[89]

Erforschen Sie 'freie' Projekte

Freie Lizenzen sind wichtig.[90] Texte und Daten des Digital Bibliography & Library Project (DBLP) und der Wikipedia sind Ausgangsbasis zahlreicher Forschungsaktivitäten, weil sie legal und mit einfachen technischen Mitteln nachnutzbar sind. Im Falle der Wikipedia hat sich eine Community um die Erforschung der Wikipedia gebildet. Die behandelten Fragen reichen von der Motivation der Wikipedianerinnen und Wikipedianer[91] bis zur statistischen Textanalyse.[92]

Ein weiteres Beispiel für ein frei lizenziertes Projekt ist der Google Books N-Gram Viewer. Zwar sind nicht alle Inhalte aus Google Books überall zugänglich, nicht einmal zur einfachen Einsicht. Google stellt jedoch daraus generierte sogenannte N-Gramme zu Analysezwecken bereit. Zwar lassen sich die einfache Abfragen direkt über die Webseite stellen, die dahinter liegenden Rohdaten[93] stehen jedoch auch zum Download und zur Weiterverwendung bereit.

Nutzen Sie Forschungsdaten nach

In Forschungsdatenrepositorien veröffentlichen Wissenschaftlerinnen und Wissenschaftler aus allen Disziplinen Rohdaten, also die Grundlage ihrer Forschungsaktivitäten. Im Kapitel Publikation von Forschungsdaten erfahren Sie, wie Sie selbst Daten veröffentlichen können. Da die so veröffentlichten Daten im Idealfall unter einer Lizenz stehen, die die Nachnutzung erlaubt, finden Sie dort eventuell eine Datengrundlage für Ihre Forschung (siehe auch Kapitel Freie Lizenzen und Nachnutzung).

Sie finden dort Daten jeder Art: vom Modell des weltweiten Kartoffelhandels[94] über die Mitgliederbibliotheken des Deutschen Bibliotheksverbands[95] und archäologische Artefakt-Inventare[96] bis zu den Daten rund um die Entdeckung des Higgs-Bosons.[97] Es gibt auch Repositorien für qualitative Daten, zum Beispiel das Qualitative Data Repository an der Syracuse University.

Eine Übersicht von Datenrepositorien finden Sie auf re3data.org (Registry of Research Data Repositories).

Nutzen Sie Tools zur Datensammlung

Es gibt zahlreiche Tools, die Ihnen die Datensammlung erleichtern oder gar komplett abnehmen. Wenn Sie beispielsweise die Twitteraktivitäten rund um ein Hashtag analysieren wollen, können Sie die entsprechenden Tweets mittels des R-Pakets twitteR einsammeln. Robert Mashey stellt mit TAGS V5 zu eben diesem Zweck eine Anwendung für Google Spreadsheets zur Verfügung, die Tweets einsammelt und einfache Auswertungen sowie eine einfache Social-Network-Analyse und eine Suchfunktion gleich mitliefert.

Anders gelagert ist [www.ushahidi.com/Ushahidi], eine Plattform, die ursprünglich entwickelt wurde, um politische Unruhen in Kenia 2007/2008 zu kartieren. Bekannt wurde Ushahidi durch den Einsatz zur Koordinierung der Katastrophenhilfen nach dem Erdbeben in Haiti 2010. Ushahidi kann Daten aus verschiedenen Quellen aggregieren und auf einer Karte darstellen.[98]

Erstellen und bearbeiten Sie Ihre Daten gemeinsam

Verteilung aller Teilnehmenden der SOAP-Umfrage[99], erstellt mit Fusion Tables (Daten)

Protegé ist ein Editor, der die Darstellung, Bearbeitung und Veröffentlichung von Ontologien ermöglicht. Seit einiger Zeit gibt es auch eine online verfügbare Variante, in der mit mehreren Personen gearbeitet werden kann. WebProtegé bietet explizite Kollaborationsunterstützung wie zum Beispiel durch Rechtevergabe (Wer darf was bearbeiten?), Diskussions- und Benachrichtigungsfunktionen.

Ein prominenteres und breiter einsetzbares Tool ist Fusion Tables von Google. Dabei handelt es sich um einen Webservice, mit dem Daten erstellt, veröffentlicht und verarbeitet werden können. Die Global Conservation Maps sind mit Fusion Tables erstellt. Weitere Beispiele finden Sie in der Fusion Tables Example Gallery.

Ein Beispiel für ein Web-Tool, das es Nutzerinnen und Nutzern erlaubt, selbst komplizierte Modellrechnungen anzustellen, ist Climate Analogues. Durch die Anwendung statistischer Verfahren auf direkt in dem Tool verfügbare Klimadaten kann man herausfinden, wo auf der Erde sich klimatisch ähnliche Regionen befinden oder das Klima welcher Region heute dem Klima einer bestimmten Region in der Zukunft unter verschiedenen Klimawandelszenarien entspricht.

Visualisieren Sie Ihre Daten

Wortwolke aus einem Zwischenstand bei der Erstellung dieses Handbuchs, hergestellt mit Many Eyes

Es ist nicht nur möglich, sich bei der Datensammlung helfen zu lassen. Auch für die Visualisierung von Daten sind Werkzeuge verfügbar. Diese Werkzeuge, die in manchen Fällen Operationen bis hin zu komplexen Modellrechnungen erlauben, können eine individualisierte Datenanalyse womöglich nicht ersetzen. Sie erlauben es jedoch, auf einfache Weise in einen bestimmten Datensatz einzusteigen und sich einen Überblick zu verschaffen und machen es – siehe Modellrechnungen – teilweise möglich, Analysen durchzuführen, zu denen man alleine nicht oder nur schwer in der Lage wäre.[100]

Im Bereich der Klimaforschung gibt es zahlreiche Beispiele für webgestützte und/oder kollaborative Tools im Bereich der Datenverarbeitung und -visualisierung. Ein erstes Beispiel zur Datenvisualisierung und -verarbeitung ist der KNMI Climate Explorer. Hierbei handelt es sich um ein Werkzeug, das es erlaubt, Daten zu Klima und Klimawandel, inklusive eigener Daten, graphisch darzustellen, zu analysieren und weiterzuverarbeiten.

Mit dem Climate Wizard können aus den Daten globaler Klimamodelle Landkarten zum Klimawandel erzeugt werden.

RTB Maps ist ein Beispiel für ein Projekt, in dem Wissenschaftlerinnen und Wissenschaftler verschiedener Forschungsinstitute ihre gemeinsame Arbeit auf einer Webplattform präsentieren. RTB Maps, das die Anwendung ArcGIS nutzt, bündelt globale Landkarten zur Produktion verschiedener Feldfrüchte mit Karten zu Pflanzenkrankheiten und sozio-ökonomischen Variablen. Nutzerinnen und Nutzer können diese Karten nach ihren eigenen Bedürfnissen neu kombinieren und für ihre eigenen Zwecke verwenden.

Im Web finden sich darüber hinaus hunderte Werkzeuge, mit denen Sie Ihre Daten auf jede erdenkliche Art und Weise präsentieren können. [www-958.ibm.com/ Many Eyes], das von IBM gratis zur Verfügung gestellt wird, ist dabei eins der prominentesten Beispiele. Damit lassen sich auch interaktive Darstellungen von Daten mit wenigen Klicks erstellen. Sowohl die Daten als auch die Visualisierungen sind dabei immer öffentlich.

Beachten Sie dabei stets, dass Visualisierungen sehr mächtige Werkzeuge zur Verdeutlichung von Inhalten sind, es jedoch auch schnell zu Fehlinterpretationen kommen kann![101] Für einen vertieften Einstieg in die Materie sei hier stellvertretend für viele andere Werke auf die Publikationen von Edward Tufte verwiesen.

APIs und Schnittstellen

Schon 2006 fragte Declan Butler sich und seine Leserschaft, ob nun das 'Jahr der Mashups', also der Verknüpfung von Daten und Services unterschiedlicher Webseiten in einer anderen, direkt vor dem Durchbruch stünde.[102] Die große Mashup-Revolution ist bisher ausgeblieben, doch haben sich einzelne Dienste fest und von der Anwenderin/dem Anwender oft unbemerkt etabliert. So sind viele Webseiten, die auf Karten von OpenStreetMap oder Google Maps basieren, Mashups, die dadurch ermöglicht werden, dass die Kartendaten über eine Schnittstelle bereitgestellt werden.

Programmable Web listet – Stand März 2014 – fast 350 dieser Programmierschnittstellen (oder API für application programming interface) aus dem Bereich 'Science'. Dazu gehören das Exoplanet Archive Application Programming Interface (API) der NASA oder die Schnittstellen des National Biodiversity Network (NBN) und des Seismic Data Portal, über das Informationen über Erdbeben abgerufen werden können.

Nutzen Sie die Computer der anderen

Die Datenmengen werden immer größer, die damit einhergehende notwendige Rechenleistung zu ihrer Bearbeitung auch. Und da nicht jeder Zugriff auf Supercomputer hat, wurden verschiedene Möglichkeiten entwickelt, wie man dennoch auf fremde Rechenleistung zugreifen kann.[103]

Ein Webservice, der sich genau dieser Aufgabe gewidmet hat, ist OpenCPU. Der Schwerpunkt ist weniger der, möglichst große Rechenpower zur Verfügung zu haben, sondern liegt vielmehr darauf, statistische Analysen auch für Dritte nachvollziehbar und durchführbar zu machen.

Tatsächlich um Rechenleistung geht es bei BOINC (Berkeley Open Infrastructure for Network Computing). BOINC ermöglicht 'verteiltes Rechnen', also das Aufteilen einer Rechenoperation auf viele Teilaufgaben, die in diesem Fall von den Computern freiwilliger Teilnehmerinnen und Teilnehmer rund um den Globus übernommen werden können. Prominente BOINC-Projekte sind SETI@Home, das sich der Suche nach außerirdischer Intelligenz widmete, und LHC@home, mit dessen Hilfe der Large Hadron Collider optimiert werden soll.

Achten Sie auf Reproduzierbarkeit und Nachhaltigkeit

Webdienste sind oft die einfachste Art, gemeinsam an Daten zu arbeiten. Beachten Sie bitte, dass im Web wenig für die Ewigkeit ist. Gibt es die von Ihnen genutzte Web-Anwendung kommendes Jahr noch? Könnten sich die Benutzungsmodalitäten für Schnittstellen ändern? Kann ich meine Daten exportieren und in anderem Zusammenhang nachnutzen?

Werkzeuge wie das oben erwähnte Fusion Tables sind sehr attraktiv. Wenn Sie es verwenden und Ihre wissenschaftliche Arbeit darauf aufbauen, sollten Sie nie aus den Augen verlieren, das Google den Dienst auch abschalten kann. Nicht nur kleine Anbieter können von einem Tag auf den anderen vor dem Aus stehen, auch große Firmen wie Google oder Yahoo sind berüchtigt dafür, Dienste wie den Google Research Datasets außer Betrieb zu nehmen.[104] Und auch die Reproduzierbarkeit Ihrer Forschung kann unter Webservices leiden, die als Black Box agieren, bei denen Sie also nicht nachvollziehen können, was tatsächlich mit Ihren Daten gemacht wird.




Handbuch CoScience/Schreiben

Kontributoren: Mareike König


Während das Schreiben von wissenschaftlichen Texten früher eine Tätigkeit war, die man in erster Linie alleine durchgeführt hat, nimmt die Zahl der Texte, die in Koautorenschaft erstellt werden, ständig zu. Parallel ergeben sich durch innovative Technologien neue Möglichkeiten des kollaborativen Schreibens. Werkzeuge wie Etherpad oder Google Docs erlauben das simultane Schreiben mehrerer Autorinnen und Autoren an einem Dokument. Damit ergeben sich für Wissenschaftlerinnen und Wissenschaftler neue Herausforderungen. Doch auch die Bewertung und Zuschreibung von Texten wird fließend, lassen sich doch bei Dokumenten, die auf diese Weise entstehen, einzelne Kapitel oder Textabschnitte nicht mehr eindeutig einer Person zuordnen.

Aber gehen wir erst einmal einen Schritt zurück. Vor dem simultanen Schreiben waren Wissenschaftlerinnen und Wissenschaftler, die gemeinsam mit anderen Texte verfassen wollten, an das Versenden von Dokumenten in der jeweiligen Version gebunden. Diese Versionen wurden über gemeinsame Laufwerke oder per E-Mail geteilt. Diese Praxis führte häufig zu Versionskonflikten. Zwei Personen editierten etwa den gleichen Text, speicherten ihn und später fand eine der beiden Personen heraus, dass die eigenen Änderungen auf dem Weg zum finalen Dokument 'verschwunden' waren. Das Thema Versionsmanagement war daher in kollaborativen Projekten von entscheidender Wichtigkeit. Im Regelfall behalf man sich damit, dass bestimmten Autorinnen und Autoren ein Zeitfenster zugesichert wurde, in dem sie das Dokument zu bearbeiten hatten. In fortschrittlicheren Forschungsumgebungen wurden Repositorien genutzt, aus denen die zu bearbeitende Datei für die Zeit der Bearbeitung 'ausgecheckt' werden konnte, so dass der Zugriff auf das Dokument durch andere Autorinnen und Autoren nicht möglich war.

Die Zukunft gehört dem simultanen Schreiben. Voraussetzung dafür sind Werkzeuge, die es erlauben, dass mehrere Personen ein und dasselbe Dokument zur gleichen Zeit editieren können. Aus technischer Sicht passiert hier Folgendes: Eine Autorin/ein Autor sperrt nicht wie früher das gesamte Dokument an dem sie/er arbeitet, sondern lediglich die Textstelle, die gerade editiert wird. Eine zweite Autorin/ein zweiter Autor hat so die Möglichkeit, den Rest des Textes weiterhin zu editieren, ohne dass es zu einem Versionskonflikt kommt.

Grundlagen verstehen

Zu den Grundlagen wissenschaftlichen Schreibens ist an anderer Stelle schon viel geschrieben worden. So lassen sich grundsätzlich zwei Typen von Referenzen unterscheiden. Auf der einen Seite Literatur, die das richtige Schreiben behandelt (Beispiele: Wie zitiere ich richtig, wo wird ein Komma gesetzt, wie beschrifte ich eine Abbildung, …?) und auf der anderen Seite Literatur, die dabei hilft, einen gut lesbaren und angenehmen Schreibstil zu entwickeln. Beides ist für das wissenschaftliche Schreiben wichtig. Die erste Gruppe bezieht sich dabei mehr auf die Form, die zweite auf den Inhalt.

Zur Auseinandersetzung damit, wie man formal richtig zitiert, können zum Einstieg und zum Nachschlagen empfohlen werden:

Zur Auseinandersetzung damit, wie man formuliert, wie lang ein Satz sein sollte und wie man es schafft, alles wegzulassen, was den Leser langweilen wird, empfehlen wir:

  • William Zinsser – On Writing Well
  • Stephen King – On Writing
  • Larry Philips – Ernest Hemingway on Writing. Zum Schreiben wie Hemingway siehe auch die nicht ganz ernst gemeinte Applikation: http://www.hemingwayapp.com
  • The Elements of Style (allgemein und kurz)
  • Chicago Manual of Style (auch dazu viel hier, generell ein guter Einstieg für das Verfassen von englischen Texten)

Zusätzlich zu diesen allgemeinen Einführungen empfiehlt sich Literatur speziell für das jeweilige Fachgebiet, zum Beispiel Jura, Literaturwissenschaft oder Medizin.

Für das kollaborative Schreiben empfehlen sich Online-Ressourcen, auf die alle Autorinnen und Autoren zugreifen können. Dies erleichtert einen einheitlichen Stil des Textes und unter Umstädnen gelingt die direkte Integration in die benutzten Schreibwerkzeuge, zum Beispiel Rechtschreibprüfung und Thesaurus. Als Online-Referenzen können wir zum Beispiel empfehlen:

Häufige Fehler vermeiden

Viele wissenschaftliche Texte sind schwer verständlich. Dies liegt im Wesentlichen an der speziellen Thematik, die eine Grundkenntnis der Materie sowie spezielle Fachbegriffe und Abkürzungen erfordert. Es gibt aber leider oft auch Probleme in Texten, die sich nicht so erklären lassen.

Häufige Schwierigkeiten der Verständlichkeit sind zum Beispiel:

  • unverständliche Dokumentstruktur
  • lange verschachtelte Sätze
  • unnötige Verwendung von wenig benutzten Fremdwörtern und Fachbegriffen
  • übermäßige Verwendung der passiven Sprache

Zur Einschätzung der Verständlichkeit eines akademischen Textes haben sich in der Englischen Sprache der Flesch Reading Ease Test und Flesch Kincaid Grade Level eingebürgert, die in einige Textverarbeitungen integriert sind.

Beim kollaborativen Schreiben kann die Verständlichkeit eines Textes verbessert werden, indem Koautorinnen und Koautoren Kommentare (siehe unten) bei unklaren Formulierungen einfügen und den Text auf Verständlichkeit überarbeiten. Für die allgemeine Verständlichkeit ist das Feedback von Personen, die nicht direkt Expertin oder Expertee in der Thematik sind, oft besonders hilfreich. Die frühzeitige Publikation eines Dokumentes, zum Beispiel als Blogbeitrag, Preprint oder Working Paper, gibt einem breiteren Publikum die Möglichkeit zum Feedback. Siehe dazu auch den Beitrag zum Wissenschaftsbloggen im Handbuch.

Rollen und Verantwortlichkeiten klären

Mit steigenden Autorenzahlen und gleichzeitig steigenden Anzahlen an Publikationsprojekten, an denen Wissenschaftlerinnen und Wissenschaftlerinnen arbeiten, nimmt auch die Notwendigkeit zu, Rollen und Verantwortlichkeiten klar zu definieren. Wer dies bereits zu Beginn eines Projektes tut, der kann sich im Weiteren Verlauf der Arbeit viel Ärger ersparen. Grundsätzlich gilt es folgende Punkte festzulegen:

  • Wer liefert welchen Beitrag?
  • In welchem Umfang werden die Beiträge geliefert?
  • Wer ist für den 'Feinschliff' verantwortlich (Gibt es etwa Eine Erstautorin/einen Erstautoren für den wesentlichen Teil der Arbeit am Projekt oder wird die Arbeit zwischen allen Autorinnen und Autoren aufgeteilt? Wurde dies gemeinsam beschlossen oder wird lediglich davon ausgegangen?)
  • Wer ist für die Erstellung von Grafiken und Tabellen (siehe auch Integration nichttextueller Medien) verantwortlich?
  • Ist die Reihenfolge Autorinnen und Autoren klar? Entspricht dies auch den Erwartungen an das Projekt?
  • Wer ist zuständig, wenn eine Koautorin/ein Koautor nicht in der festgelegten Qualität liefert? Und welche Optionen haben die anderen Autorinnen und Autoren in so einem Fall?

Zeit von Beginn an planen

Nach der Festlegung der Rollen und Verantwortlichkeiten ist der nächste Schritt die Zeitplanung. Es ist wichtig, dies zu Beginn des Projektes zu machen, damit die Erwartungen der Autorinnen und Autoren klar sind und die nötige Zeit in den individuellen Kalendern geblockt werden kann. Folgende Fragen sollte man klären:

  • Wieviel Zeit wollen wir insgesamt investieren?
  • Wieviel Zeit möchte und kann jede Koautorin/jeder Koautor einbringen?
  • Wann soll das Projekt fertig sein?
  • Wann sollen wichtige Meilensteine erreicht werden?
  • Ist die Zeitplanung realistisch?
  • Wer koordiniert die Zeitplanung?

Erfahrungsgemäß wird bei vielen gemeinsamen Schreibprojekten die Zeitplanung vernachlässigt. Gegen Ende des Projektes wird die Welt etwas hektisch, insbesondere wenn es einen von außen festgelegten fixen Zeitpunkt gibt (zum Beispiel eine Deadline einer Revision).

Die folgenden Phasen eines gemeinsamen Schreibprojekts – angelehnt an die Phasen eines Book Sprint – sind sinnvoll, egal ob das Projekt drei Tage oder ein Jahr dauern soll:

  • Konzept
  • Gliederung
  • Schreiben
  • Korrektur und Zusammenführung
  • Publikation

Einsatz der Werkzeuge festlegen

Es gibt die unterschiedlichsten Werkzeuge, um Texte zu verfassen. Während man sich in manchen Disziplinen nach wie vor an LaTex klammert, werden in anderen Disziplinen noch immer Word-Dokumente per E-Mail verschickt. Es ist ratsam, vor dem tatsächlichen Akt des Schreibens festzulegen, welche Werkzeuge hierfür zum Einsatz kommen werden. Dies gilt besonders in disziplinübergreifenden Projekten und immer dann, wenn man mit neuen Koautorinnen und Koautoren zusammenarbeitet. Die einzelnen Werkzeuge haben alle ihre individuellen Vor- und Nachteile. Die Auswahl sollte sich an den Anforderungen des Projektes orientieren. Ist es etwa gewollt, dass mehrere Autorinnen und Autoren zeitgleich am gleichen Dokument arbeiten, so bieten sich Online-Lösungen wie Etherpad oder GoogleDocs an. Ist eine erstautorin/Erstautor für das Zusammenfügen des Dokumentes verantwortlich, so ist es mitunter einfacher, wenn jede Autorin/jeder Autor die Inhalte in seiner bevorzugten Umgebung verfasst.

Zur gemeinsamen Literaturverwaltung sollte sich ein Projekt auf ein bestimmtes Programm einigen, bei kleinen Projekten liegt diese Entscheidung bei der Erstautorin/beim Erstautor. Idealerweise sollte die kollaborative Literaturverwaltung über das Internet möglich sein, wie zum Beispiel mit Zotero oder Mendeley.

Für Abbildungen, statistische Auswertungen usw. werden unter Umstanden weitere Programme benötigt. Auch hier sollte sich das Projekt auf die verwendeten Programme beziehungsweise Dateiformate einigen.

Zur Koordination des gemeinsamen Schreibens wird im einfachsten Fall E-Mail verwendet. Zusätzlich können je nach Umfang des Projektes noch andere Werkzeuge aus den folgenden Kategorien zum Einsatz kommen:

  • zentrale Dokumentenverwaltung, zum Beispiel Dropbox (europäische Alternative: Wuala), Google Docs
  • Kommunikation, zum Beispiel ICQ, Skype
  • Projektmanagement, zum Beispiel Doodle, Basecamp

Kommentare sinnvoll einsetzen

Kommentare sind ein bewährtes Mittel, um Koautorinnen und Koautoren Änderungen vorzuschlagen oder auf Schwierigkeiten im Text hinzuweisen. Dabei wird der eigentliche Text nicht verändert, sondern lediglich ein Hinweis hinzugefügt. Es gibt verschiedene Gründe, aus denen es sinnvoll sein kann, die Kommentarfunktion zu nutzen, statt den Text selbst zu editieren:

Abbildung: Kommentar in Google Docs
  • Die Textstelle hat eine andere Autorin/ein anderer Autor, dren/dessen Arbeit man nicht editieren möchte.
  • Die Textstelle wirft eine Frage auf, die der Kommentierende nicht selber beantworten kann. (Beispiele hierfür sind: der Satz ist nicht zu verstehen, es fehlt ein Verb, es fehlt eine Quelle …)
  • Man möchte eine alternative Formulierung vorschlagen, die ursprüngliche Formulierung aber nicht überschreiben.
  • Man nimmt an, dass hier etwas falsch sei und möchte darum bitten dies noch einmal zu überprüfen.

Kommentare sind also ein zentrales Werkzeug im kollaborativen Schreiben und die eingesetzte Software sollte die folgenden Funktionen haben:

  • Kommentare sind Teil des Dokuments
  • Kommentare sollen nicht am Ende des Texts stehen, sondern als Textmarkierung mit Kommentartext am Seitenrand erscheinen
  • Koautorinnen und Koautoren werden benachrichtigt und können direkt auf den Kommentar antworten

Änderungen nachvollziehen

Das Nachverfolgen von Änderungen ist wichtig, um zu sehen, was in einem gemeinsam geschriebenen Text passiert ist oder um herauszufinden, wer eine bestimmte Änderung gemacht hat. Mit dieser Funktion ist es außerdem möglich, versehentlich gelöschten Text zurückzuholen. Zum Nachverfolgen von Änderungen müssen zwei Dinge gemacht werden:

  • Versionskontrolle
  • Hervorhebung von Änderungen

Versionskontrolle

Im einfachsten Fall (siehe Einleitung) bekommen alle Dokumente einen eindeutigen Dateinamen, zusammengesetzt zum Beispiel aus Titel, Datum, Version und/oder Autorin oder Autor.

FINAL_rev.22.comments49.corrections.10.#@$%WHYDIDICOMETOGRADSCHOOL???.doc

Es arbeitet immer genau eine Autorin/ein Autor an einem Dokument und die Dokumente werden per E-Mail ausgetauscht.

Für größere Projekte empfiehlt sich eine zentrale Speicherung und Versionierung der Dokumente, zum Beispiel mittels Dropbox, Wuala oder Google Docs.

Wenn mehrere Autorinnen und Autoren gleichzeitig an einem Dokument arbeiten können sollen, benötigt man spezielle Werkzeuge wie zum Beispiel Google Docs oder Etherpad.

Hervorhebung von Änderungen

In Werkzeugen wie Microsoft Word wurde hierfür die Funktion 'Änderungen nachverfolgen' genutzt. Die Idee dahinter ist, dass es eine Person gibt, die für den Schreibprozess verantwortlich ist, etwa eine Hauptautorin/ein Hauptautor. Diese Hauptautorin oder dieser Hauptautor erhält von den Koautorinnen und Koautoren Texte, die zeigen, welche Änderungen diese im Text gemacht haben, und kann diesen dann zustimmen oder sie ablehnen. Beim simultanen Schreiben ist das Nachverfolgen von Änderungen komplizierter, da eine äquivalente Funktion bis heute fehlt. Dennoch bietet die 'Revision History' (siehe Abbildung von Google Docs) die Möglichkeit, Änderungen nachzuverfolgen und, wenn nötig, diese rückgängig zu machen. Für reine Textdateien gibt es mit Critic Markup einen interessanten Ansatz, der von einer zunehmenden Zahl von Werkzeugen unterstützt wird.

Abbildung: Revision History in Google Docs

Nicht-textuelle Materialien hinzufügen

Während das simultane Schreiben heute in vielen Teilen der Wissenschaft an der Tagesordnung ist, ist die Integration von nicht-textuellen Materialen nach wie vor eine besondere Herausforderung. Mit nicht-textuellen Materialen meinen wir hier: Abbildungen, Videos, Tabellen, Referenzen, Forschungsdaten und Code. Im Folgenden werden wir die einzelnen Fälle nach und nach erörtern.

Abbildungen

Es gibt heute Möglichkeiten, kollaborativ Abbildungen zu erstellen, allerdings sind die Dienste, die solche Funktionen anbieten, in ihrem Funktionsumfang noch nicht auf wettbewerbsfähigem Niveau (Stand 2/2014). Zudem werden Abbildungen nicht so oft editiert wie Text und so ist der Bedarf für eine kollaborative Lösung nicht ganz so ausgeprägt. Aus unserer Erfahrung empfehlen wir für die Integration von Abbildungen folgenden Prozess: Eine ausgewählte Person im Projekt ist für den Stil der Abbildungen verantwortlich. Die anderen Autorinnen und Autoren liefern ihre Abbildungswünsche als Skizze oder Daten (zum Beispiel für Diagramme) an die verantwortliche Person (in seltenen Fällen übernimmt dies auch ein Verlag), die ihrerseits die Grafiken einheitlich umsetzt und in das gemeinsame Dokument einfügt. Oft ist es ratsam, die Originale zusätzlich über ein Netzwerklaufwerk oder einen Dienst (zum Beispiel Dropbox) zu teilen. So können die Autorinnen und Autoren Kleinigkeiten wie Tippfehler bei Achsenbeschriftungen selbst editieren.

Tabellen

Während sich Texte im Regelfall leicht von Programm zu Programm übertragen lassen, hängt der Erfolg bei der Übertragung von Tabellen stark vom Programm ab, in dem sie erstellt wurden. Bei wissenschaftlichen Texten stammen die Tabellen in aller Regel aus LaTex, Microsoft Word oder Excel, Adobe InDesign und inzwischen auch vermehrt aus Google Docs. Es empfiehlt sich, die Tabellen von Anfang an in dem Programm zu entwickeln, in dem sie final erstellt werden sollen. Dies spart eine Menge Fleißarbeit und schlechte Laune im Team. Für die Entwicklung eines Dokumentes reicht es in der Regel aus, das Einfügen einer Tabelle anzukündigen, etwa durch eine Zeile wie:

»Hier später Tabelle 1 einfügen«

Erst wenn der Text abgeschlossen ist, sollten die Tabellen in einem letzten Schritt eingereicht werden, da man so nicht mit späteren Umbrüchen kämpfen muss.

Referenzen

Referenzen sind ein zentraler Bestandteil jedes wissenschaftlichen Texts. Man unterscheidet Links, Fußnoten und Zitate, die Abgrenzung ist fließend:

  • Links – in der Regel Weblinks – befinden sich direkt im Text
  • Fußnoten beinhalten weitere Informationen (einschließlich Zitate), die aber nicht im Haupttext erscheinen sollen
  • Zitate befinden sich im Text und verweisen auf eine Bibliographie am Ende des Textes

Die Verwendung der jeweiligen Formate hängt von der Disziplin ab, so sind Fußnoten zum Beispiel in den Naturwissenschaften nicht üblich. Zitate verwenden einen vorgegebenen Zitierstil, zum Beispiel einer bestimmten Fachzeitschrift und können oft von der Autorin oder dem Autor nicht selbst bestimmt werden. Allgemein verbreitete Zitierstile sind zum Beispiel APA, MLA und Harvard.

In einem kollaborativen Schreibprojekt sollten sich die Autoren auf eine Literaturverwaltungsprogramm (siehe oben), einen Zitationsstil und die Verwendung von Links und Fußnoten einigen.

Forschungsdaten

Die den Ergebnissen einer Publikation zugrunde liegenden Forschungsdaten werden in der Regel in einem speziellen Forschungsdatenrepositorium abgelehnt. Kleinere Datensätze werden häufig als Supplementary Information an die Publikation angehängt. In beiden Fällen werden diese Daten in der Publikation zitiert, aber nicht selbst in den Text eingefügt.

Code

Die Software, die zur Erstellung einer wissenschaftlichen Publikation benötigt wurde, ist nicht selten speziell für das Projekt geschrieben. Ähnlich den zugrundeliegenden Forschungsdaten sollte die Software nach Möglichkeit in einem öffentlich zugänglichen Repositorium zur Verfügung gestellt werden und kann dann von der Publikation zitiert werden.

Abbildung: Beispiel für R Code mit Syntax Highlighting in einem Dokument.

Bei kompaktem Code kann der Code direkt im Text integriert werden. Dies gelingt besonders einfach mit Werkzeugen wie knitr (für die Programmiersprache R) und iPython Notebook, mit denen der Code direkt im Dokument eingegeben wird. Als Standard für das Syntax-Highlighting hat sich hier Pygments etabliert und wird von vielen Werkzeugen unterstützt.

Bei Texten in einer anderen Sprache in dieser Sprache denken

Neben der allgemeinen Schwierigkeit, das wissenschaftliche Schreiben zu erlernen, stehen Wissenschaftler häufig vor der Herausforderung, Texte in einer anderen Sprache als ihrer Muttersprache verfassen zu müssen. Das gilt insbesondere für Texte in englischer Sprache, die in vielen Disziplinen der Wissenschaft zum Standard geworden ist. Für deutschsprachige Autorinnen und Autoren ist das Verfassen sprachlich korrekter Texte in Englisch meist ein überwindbares Hindernis. Probleme haben sie jedoch gern mit differenzierten Formulierungen und dem Ausdrücken von subtilen Unterschieden. Als Einstieg empfehlen sich wieder die oben genannten Style Guides, außerdem sollten Wörterbuch und Thesaurus ständige Begleiter sein. Letztere sind am einfachsten in elektronischer Version zu nutzen, wobei die Integration in die Textverarbeitung nur teilweise gelingt, da es nicht um falsch versus richtig geht, sondern um möglichst treffende Formulierungen. In kollaborativen Projekten, in denen keine Muttersprachlerinnen und Muttersprachler dabei sind, ist es anzuraten, den Text nach Fertigstellung sprachlich überprüfen zu lassen. Fehlerhafte Sprache kann die gesamte Wahrnehmung eines Textes verändern, was etwa in einem Reviewprozess schwerwiegende Folgen haben kann.

Zielgruppen verstehen und entsprechend formulieren

Während wissenschaftliche Texte in erster Linie für andere Wissenschaftlerinnen und Wissenschaftler geschrieben werden, sind insbesondere Open-Access-Publikationen und andere verfügbare Texte natürlich auch für andere Zielgruppen erreichbar. Insbesondere Themen von allgemeinem Interesse wie zum Beispiel Gesundheit oder Klimawandel werden von einer breiten Öffentlichkeit gelesen. Bei jedem Text mit interessantem aber auch möglicherweise kontroversem Inhalt sollte daher auch auf seine allgemeine Verständlichkeit geachtet werden, um spätere Missverständnisse zu vermeiden. Texte, die direkt an eine breitere Zielgruppe adressiert sind, sollten entsprechend formuliert werden.

Handbuch CoScience/Publizieren: ein Überblick

Was ist eine Publikation und worum geht es in diesem Kapitel?

Unter einer Publikation versteht man die Kommunikation von „inhaltlich und strukturell so stabilisierte Aussagen, dass sie auch von anderen Personen nachvollziehbar rezipiert werden können“[105]. Diese Aussagen müssen verlässlich und bewertbar sein. Damit andere von diesen Aussagen erfahren und diese wahrnehmen können, müssen sie publiziert, also verbreitet und sichtbar gemacht werden.

In der Wissenschaft gibt es immanente Gründe, warum publiziert wird. Doch wie und in welcher Form können Aussagen publiziert werden? Hier stellt sich schnell die Frage nach der Publikationsart, etwa ob es sich um einen Kongressbeitrag, einen Artikel in einer wissenschaftlichen oder populärwissenschaftlichen Zeitschrift oder ein Buch handelt. Damit eng verknüpft sind auch Fragen nach der Zielgruppe und dem Duktus. Des Weiteren ist wichtig, an welchem Publikationsort der Text idealerweise erscheinen soll, also in welcher Zeitschrift beziehungsweise in welchem Verlag. Bei all diesen Punkten gilt es auch, die Publikationskultur der jeweiligen Disziplin zu beachten, insbesondere dann, wenn die Publikation Mittel für den persönlichen Aufstieg innerhalb des Wissenschaftssystems sein soll. Für welchen Publikationskanal entscheidet man sich? Soll der Text als Print- oder Onlineausgabe verfügbar sein? In diesem Zusammenhang muss auch entschieden werden, ob die Ergebnisse frei verfügbar, also Open Access, veröffentlicht werden sollen und welche Möglichkeiten der Nachnutzung durch die Auswahl geeigneter Lizenzen Dritten eingeräumt werden sollen. Die beiden zuletzt genannten Fragen erstrecken sich eventuell auch auf Forschungsdaten, denen die Publikation zugrunde liegt. Auch hier muss entschieden werden, ob diese frei zugänglich gemacht werden sollen und welche Möglichkeiten zur Nachnutzung gewährt werden sollen. Schließlich stellt sich auch die Frage, ob mit der Publikation Kosten verbunden sind und wer diese gegebenenfalls übernimmt. Autorinnen und Autoren im wissenschaftlichen Kontext müssen sich darüber hinaus auch mit der Qualitätssicherung ihrer Ergebnisse auseinandersetzen.

Wie die Auflistung zeigt, sind im Rahmen einer wissenschaftliche Publikation eine Reihe von Entscheidungen zu treffen. Hierzu möchte dieses Kapitel eine erste Orientierung liefern.

Warum publizieren Wissenschaftlerinnen und Wissenschaftler?

Die wissenschaftliche Publikation ist zentrales Mittel, um Ergebnisse und Erkenntnisse zu kommunizieren und zur Diskussion zu stellen,sowie um von der wissenschaftlichen Gemeinschaft wahrgenommen zu werden beziwhungsweise die Ergebnisse zur Nachnutzung bereitzustellen. Indirekt hat die Publikation auch eine 'Kennzeichnungsfunktion', das heißt, Wissenschaftlerinnen und Wissenschaftler markieren mit der Veröffentlichung, dass sie die ersten waren, die entsprechende Ergebnisse generiert haben. Die Publikation wissenschaftlicher Ergebnisse stellt dabei für die Forscherin/den Forscher die 'Eintrittskarte' in das Wissenschaftssystem dar und ist Bedingung für den Aufstieg darin. Niemand wird als Wissenschaftlerin oder Wissenschaftler wahrgenommen, solange sie oder er keine wissenschaftlichen Ergebnisse publiziert hat. Die in diesem Zusammenhang häufig angeführte Redewendung 'Publish or Perish' verdeutlicht gleichzeitig den Publikationsdruck, dem Wissenschaftlerinnen und Wissenschaftler heute ausgesetzt sind. Die Anzahl der Publikationen und insbesondere ihre Wirkung (Impact) – in der Regel bestimmt über die Häufigkeit, mit der die Publikationen zitiert werden, – sind wichtige Parameter für den Reputationsauf- und -ausbau. Die durch die eigene Publikationstätigkeit erlangte Reputation hat unter anderem Einfluss auf Stellenbesetzungen und Vergabe von Fördermitteln.

Was wird publiziert? Publikationsarten und deren Bedeutung in den jeweiligen Disziplinen

Für die Veröffentlichungen bieten sich unterschiedliche Publikationsarten an. Die bekanntesten und am weitesten verbreitet sind Monografien, Artikel in wissenschaftlichen Zeitschriften und Beiträge zu Sammelbänden oder Konferenzbänden (conference proceedings).

Traditionell war und ist teilweise noch die gedruckte Monografie das Medium, in dem Dissertationen und Habilitationen veröffentlicht werden. Dabei ist die Reputation des Verlages, in dem die Arbeit veröffentlicht wird, von nicht unerheblicher Bedeutung für die weitere wissenschaftliche Karriere der Autorin beziehungsweise des Autors.

Auch bei Publikationen in Zeitschriften gilt es mit Blick auf den eigenen Reputationsaufbau auf die Wahl der Zeitschrift zu achten. Zu den Publikationen mit dem höchsten Stellenwert gehören Aufsätze in Peer-Review-Zeitschriften (siehe Überblickskapitel zu Peer Review). Daneben gibt es aber auch akademische Zeitschriften und andere Fachzeitschriften ohne Peer Review sowie Publikationen in populärwissenschaftlichen Zeitschriften, die je nach Stellenwert in der jeweiligen Disziplin ebenfalls zum Reputationsaufbau beitragen können.[106]

Recht unterschiedlich, je nach Disziplin, in der veröffentlicht wird, können Beiträge zu Konferenzbänden ausfallen. Sowohl eine schriftliche Ausarbeitung des Vortrags als auch die Vortragsfolien beziehungsweise Abstracts oder auch Poster können Bestandteil eines Konferenzbandes sein. Bei einigen Konferenzen wird die Auswahl der Artikel über Peer Review organisiert. Die Artikel haben dann einen ähnlichen Umfang wie Zeitschriftenartikel und erscheinen auch als Sonderausgaben zu Zeitschriften.

Diese beschriebenen Publikationsarten sind im Prinzip die Hauptveröffentlichungswege. Die tatsächliche Bandbreite wissenschaftlichen Publizierens ist aber noch größer: Das Abfassen von Lexikoneinträgen gehört ebenso dazu wie das Schreiben von Rezensionen und Tagungsberichten oder – gerade auch in der angewandten Forschung – Reports. In letzter Zeit wird aber auch diskutiert, inwieweit Social-Media-Beiträge (zum Beispiel in Blogs, als Twitter-Nachrichten oder Facebook-Posts) als Publikationen zu bewerten sind.[107]

Forderungen nach freiem Zugang und Nutzen umfassen neben Dokumenten auch Daten, die während des Forschungsprozesses entstehen. Es wird von der Politik immer häufiger gefordert und gehört im Prinzip zum Selbstverständnis der Wissenschaft, diese offenzulegen und wie die Ergebnisse der Forschung durch Publikation der Öffentlichkeit zugänglich zu machen (siehe das Kapitel Publikation von Forschungsdaten).

In den verschiedenen wissenschaftlichen Disziplinen spielen die Publikationsarten und einzelnen Publikationskanäle eine unterschiedliche Rolle.[108] Während es in den Fächern der Geistes- und Sozialwissenschaften eine starke Tradition im Hinblick auf die Publikation von Monografien und Sammelbandbeiträgen gibt, spielen diese in STM-Fächern[109] weitestgehend eine eher untergeordnete Rolle, wenngleich diese dort auch nicht völlig bedeutungslos sind. In diesen Fächern wird überwiegend in Form von Zeitschriftenartikeln publiziert. In der Informatik wiederum spielen begutachtete Beiträge (Peer Review) zu Konferenzen eine wichtige Rolle und haben dort den gleichen Stellenwert wie Publikationen in wissenschaftlichen Zeitschriften. Es kann jedoch auch innerhalb einer Disziplin erhebliche Unterschiede geben: In der klinischen Psychologie, in der überwiegend empirisch gearbeitet wird, ist die Veröffentlichung in wissenschaftlichen Zeitschriften gängig, während in der praktischen Psychologie auch Sammelbandbeiträge und Aufsätze in populärwissenschaftlichen Zeitschriften zum Reputationsgewinn beitragen. Zudem kann die Bedeutung einzelner Publikationsarten je nach Karrierestadium, in dem sich eine Wissenschaftlerin oder ein Wissenschaftler befindet, variieren. So spielt die Monografie bei der Promotion und Habilitation eine gewissen Rolle, während ansonsten viel in Form von Zeitschriftenaufsätzen publiziert wird.

Bei der Bewertung und Auswahl eines geeigneten Publikationsorgans haben sich je nach Fach unterschiedliche Standards herausgebildet. Bei Buchpublikationen in den Rechtswissenschaften kommt es darauf an, die Arbeit in einem möglichst renommierten Verlag zu veröffentlichen. In den Wirtschaftswissenschaften und in vielen STM-Fächern werden Zeitschriften kategorisiert.[110] Bei der Einordnung von Zeitschriften in die entsprechenden Kategorien werden unter anderem Ablehnungsquoten und Zeitschriftenrankings wie die Journal Citation Reports (JCR) herangezogen.[111]

Von Print zu elektronischen Publikationen: Was verändert sich?

Während in der Vergangenheit Printerzeugnisse eine entscheidende Rolle gespielt haben, verlagert sich durch die Popularität des Internets und der Verbilligung von Speicherplatz die Publikation immer stärker zur elektronischen Variante im Netz. Der Vorteil elektronischer Publikationen ist, dass man sie schnell(er) und teilweise preiswerter publizieren kann und sie sofort weltweit sichtbar sind. Dabei spielt es zunächst keine Rolle, ob man von Toll-Access spricht, also von Publikationen, die lizenziert sind oder von Open-Access-Publikationen, zu denen die Leserinnen und Leser entgeltfreien Zugang haben.

Da sich die neuen Publikationswege erst etablieren und die Lesegewohnheiten sich erst anpassen müssen, erscheinen Zeitschriften und Monografien zurzeit teilweise noch als Hybridpublikationen, das heißt sowohl im Print- als auch im elektronischen Format. Für Monografien hat sich Print-on-Demand bewährt. Bücher werden, ermöglicht durch neue Digitaldrucktechnik, erst dann gedruckt, wenn sie von der Kundin oder vom Kunden bestellt werden. Dies schont Ressourcen wie Papier und Druckfarbe, zudem können Verlage ihre Lagerplätze reduzieren.

Die Skepsis gegenüber wissenschaftlichen Publikationen im elektronischen Format weicht, so dass gerade auch im Zeitschriftenbereich zunehmend auf e-only, also rein auf das elektronische Format gesetzt wird. Der Sorge ob der Vergänglichkeit der Werke konnte mit der Vergabe eines persistenten Identifikatorsbegegnet werden. Idgital Objekt Identifiers (DOI), Handles oder Uniform Resource Names (URN) erlauben das permanente Wiederfinden eines Artikels auch im weltweiten Netz. Zurzeit wird der Besorgnis, dass die Publikationen eines Tages aufgrund von technischen Weiterentwicklungen nicht mehr abrufbar sein werden, durch neue Maßnahmen der Langzeitarchivierung begegnet.

Die Entwicklungen im Bereich des elektronischen Publizierens, die die Ablösung des Papiers durch die Elektronik beziehungsweise die des Satzspiegels durch Markup-Texte bedingen, eröffnen ganz neue Möglichkeiten des Publizierens. Die Möglichkeit zur Verlinkung von Texten oder zur Versionierung (also der nachvollziehbaren Aktualisierung von Publikationen) stellen nur zwei Beispiele dar. Die Verbindung zwischen Autorin/Autor und Rezipientin/Rezipient wird beispielsweise durch die Kommentarfunktion viel unmittelbarer und sichtbarer. Die Kommentare können in die Publikation einfließen und fördern dadurch zusätzlich die Diskussion und den Wissenschaftsaustausch. Dazu laden auch die Repositorien ein, die die Veröffentlichung von Preprints erlauben, eine Form der Publikation, die vor allem in den Naturwissenschaften und Wirtschaftswissenschaften verbreitet ist. Durch die zeitnahe Publikation der wissenschaftlichen Ergebnisse können diese schnell aufgegriffen, kommentiert und verbreitet werden, bis die eigentliche Veröffentlichung das Review-Verfahren passiert hat.

Insgesamt kann aber festgehalten werden, dass das elektronische Publizieren zurzeit noch den eher klassischen Publikationsweg nachbildet, der die wissenschaftliche Qualität durch ein aufwendiges Review-Verfahren absichert, mit all seinen Vor- und Nachteilen. Neue Wege zeichnen sich durch das Open-Peer-Review-Verfahren ab sowie durch die Möglichkeit, Artikel nicht nur zu lesen, sondern deren Inhalte aufzugreifen und weiterzuverarbeiten.




Handbuch CoScience/Open Access

Autoren: Marco Tullney


Open Access verstehen

Open Access ist ein populäres Schlagwort in den letzten Jahren geworden. Die gestiegene Aufmerksamkeit von Öffentlichkeit, Autorinnen und Autoren sowie von Förderorganisationen führt dazu, dass Open Access in Geschäftsmodelle und Strategien integriert wird – wobei manchmal wenig mehr als eine begriffliche Hülse übrig bleibt. Zu wissen, was Open-Access-Akteure unter dem Begriff verstehen, und ein eigenes Verständnis vom Thema und den eigenen Interessen zu entwickeln, ist hilfreich und notwendig.

Ein zentrales Dokument der Open-Access-Bewegung ist die Berlin Declaration on Open Access to Knowledge in the Sciences and Humanities (Berliner Erklärung) aus dem Jahr 2003, die seither von Wissenschaftsorganisationen wie Hochschulen, Einrichtungen außeruniversitärer Forschung und vielen anderen unterzeichnet worden ist.[112]

Zu den wesentlichen Merkmalen von Open Access gehört nicht nur die kostenlose Bereitstellung von Werken, sondern auch der Verzicht auf technische und rechtliche Barrieren für Nutzung und Weitergabe. 'Echte' Open-Access-Publikationen können frei gelesen, bearbeitet und (auch in bearbeiteter Form) weitergegeben und an anderer Stelle veröffentlicht werden. In aller Regel (Ausnahmen können zum Beispiel beim Text- und Data-Mining entstehen) ist dabei notwendig, die Urheberschaft genau anzugeben (Attribution).[113]

Eines der wesentlichen und kritischen Probleme von Open Access in der momentanen Wissenschafts- und Publikationslandschaft ist die absichtliche oder fahrlässige Aufweichung des Begriffes und die Etikettierung von Produkten und Geschäftsmodellen, die alles andere als offen sind, als 'Open Access'.[114]

Veröffentlichen, um wahrgenommen zu werden

Wissenschaftliches Publizieren dient der Wissenschaftskommunikation, der Vermittlung von Forschungsergebnissen und -prozessen. Eine möglichst freie Verfügbarkeit erhöht die Sichtbarkeit und Auffindbarkeit Ihres Textes. Das ist eine wichtige Voraussetzung dafür, dass Sie mit Ihren Forschungsergebnissen die Fachöffentlichkeit sowie weitere Zielgruppen erreichen und dass Ihre Beiträge wahrgenommen werden. Die Wahrnehmung in der Fachöffentlichkeit wiederum beeinflusst ganz wesentlich den Fortgang wissenschaftlicher Karrieren.

Veröffentlichen, damit andere weiterarbeiten können

Wissenschaftliche Arbeiten bauen auf vorausgegangenen Arbeiten anderer Wissenschaftlerinnen beziehungsweise Wissenschaftler auf. Wissenschaftliche Publikationen werden auf unterschiedliche Weisen nachgenutzt – mindestens durch Zitation, Verweis und Paraphrasierung, aber auch zum Beispiel durch die Zweitveröffentlichung oder die Übersetzung publizierter Werke. Das Arbeiten im Netz erleichtert auch andere Formen der Nachnutzung: die Übernahme von Forschungsdaten und Abbildungen, die Neukompilation unselbstständiger Werke zu neuen Sammelwerken oder die Übersetzung von Texten durch bisher Unbeteiligte. Nachnutzung zu ermöglichen und zu erleichtern, ist ein wichtiger Dienst an der Wissenschaft – nicht zuletzt auch, um doppelte Arbeit zu vermeiden. Weitere Informationen dazu finden Sie auch im Kapitel Freie Lizenzen und Nachnutzung.

Eine Open-Access-Zeitschrift finden

In den meisten wissenschaftlichen Disziplinen gibt es inzwischen eine große Zahl von Open-Access-Zeitschriften. Häufig ist jedoch etwas Aufwand bei der Recherche zu treiben, weil darunter viele neu gegründete Zeitschriften sind, die Wissenschaftlerinnen und Wissenschaftlern vielleicht bisher noch nicht bekannt sind. Wesentliche Kriterien bei der Suche nach einer passenden Zeitschrift könnten sein:

  • fachliche Ausrichtung, Eignung für den eigenen Text
  • Transparenz der Zeitschrift hinsichtlich ihrer Arbeitsweise, der involvierten Personen und Institutionen; Art und Dauer von Phasen, die Einreichungen durchlaufen
  • Open-Access-Parameter: Rechteübertragungen, Nutzungslizenzen, Kompatibilität mit Anforderungen von Förderinstitution, eigener Hochschule etc.
  • Sind Ihnen die Personen, die am Publikationsprozess beteiligt sind (Redaktion, Begutachtung, Autorentätigkeit), bekannt?

Die umfangreichste Sammlung von Open-Access-Zeitschriften ist im Directory of Open Access Journals zu finden. In einem 2014 noch andauernden Umstrukturierungsprozess werden die Aufnahmekriterien weiter verschärft. Aufgenommen werden wissenschaftliche Zeitschriften aus allen Disziplinen, die

  • minimale Open-Access-Standards erfüllen (kostenlos lesbar und mit der Erlaubnis, weiterverbreitet und neu veröffentlicht zu werden),
  • eine Form der Qualitätskontrolle praktizieren (Peer Review oder Begutachtung durch Herausgeber und Herausgeberinnen beziehungsweise Redaktion),
  • hauptsächlich Forschungsergebnisse präsentieren und
  • periodisch/in Ausgaben erscheinen.[115]

Zeitschriften können dort nach Disziplin recherchiert werden. Eine besondere Stärke liegt darin, dass viele der Zeitschriften Metadaten auf Artikelebene abgeben und so auch nach Artikeln gesucht werden kann.

Korrekte Lizenzen wählen

Lizenzen (vgl. dazu Freie Lizenzen und Nachnutzung) dienen der Einräumung von Nutzungsrechten. So können pauschale Rechte gewährt werden, die die freie Nachnutzung ermöglichen, zum Beispiel könnten dann Bearbeitungen in Form von Übersetzungen oder Adaptionen angefertigt werden. Aber auch kleinere Formen der Nachnutzung wie zum Beispiel die Verwendung einer Abbildung in der Wikipedia oder einem anderen Artikel (in Fällen, in denen das Zitatrecht nicht ausreicht) können so praktiziert werden, ohne dass eine erneute einzelvertragliche Vereinbarung geschlossen werden muss. Vergebene Lizenzen können nicht zurückgenommen werden.

Entsprechende Lizenzen schließen darüber hinausgehende Einzelregelungen nicht aus. So können Autorinnen beziehungsweise Autoren (oder im ungünstigeren Fall eine Institution, der sie ihre Rechte übertragen haben) für einen bestimmten Zweck auch andere Bedingungen vereinbaren, zum Beispiel einen erneuten Abdruck ohne Nennung der Autor(en)schaft.

Transparenz einfordern

Gute Zeitschriften und Verlage können Ihnen Nachfragen zu den Prozessen, Kosten etc. beantworten. Warum fallen Kosten für Autorinnen beziehungsweise Autoren an? Wie funktioniert das Begutachtungsverfahren? Wie lange dauert es vermutlich bis zu einer Publikation? Welche Schritte unternimmt die Zeitschrift, der Verlag für eine Verbreitung Ihrer Forschungsergebnisse? Welche Lizenzen werden verwendet, sind die Bestimmungen klar, werden etablierte Lizenzen verwendet? Achten Sie darauf, dass auch und gerade die Frage der Rechteübertragung unter dieses Transparenzgebot fällt. Lassen Sie sich nicht mit allgemeinen Verweisen abspeisen. Jemand möchte etwas von Ihnen und wenn Sie dabei Rechte verlieren sollten (im Falle einer exklusiven Rechteübertragung oder eines copyright transfers), kann das nachteilig für Sie sein.

Informationen suchen

Viele Hochschulen und Forschungseinrichtungen haben Open-Access-Beauftragte, die bei Fragen zum Thema Open Access weiterhelfen können, Schulungs- und Beratungsangebote organisieren oder weitergehende Informationen einholen können. Oftmals werden zumindest rudimentäre Informationen zu Open Access zur Verfügung gestellt, mindestens durch einen Verweis auf die Informationsplattform open-access.net. Inzwischen existieren auch viele Überblicksinformationen für spezielle Zielgruppen, zum Beispiel die Broschüre „Open-Access-Strategien für wissenschaftliche Einrichtungen“[116].

Open Access finanzieren

Ein Teil der Open-Access-Zeitschriften finanziert sich über eine Kostenbeteiligung der Autorinnen und Autoren, sogenannte article processing charges (APC), die anstelle der Einnahmen aus Subskriptionen bei nicht-freien Zeitschriften kommerziellen Verlagen den Betrieb der Zeitschrift und gegebenenfalls Gewinnerlöse sichern sollen. Die APC liegen oftmals zwischen 1.000 und 3.000 EUR pro Artikel. Manche Zeitschriften erlassen auf Nachfrage oder für bestimmte Autorengruppen pauschal diese Kosten.

Zur Finanzierung dieser Kosten, wenn man sie nicht vermeiden kann (zum Beispiel durch Wahl einer Zeitschrift, die nicht Verlagsgewinne erzeugen muss), können in Drittmittelprojekten Publikationsmittel beantragt werden. Zusätzlich haben viele Hochschulen inzwischen durch ein spezielles Förderprogramm der Deutschen Forschungsgemeinschaft (DFG) Unterstützung beim Aufbau von Open-Access-Publikationsfonds erhalten, aus denen Hochschulangehörige die Open-Access-Publikationskosten erstattet werden können. Eine internationale Übersicht finden Sie im Open Access Directory.

Eigene Publikationsorte aufbauen

Open-Source-Software für das Management von Zeitschriften und Büchern (für Einreichungsworkflows und die Veröffentlichung fertiger Publikationen) senken die Hürden für den technischen Betrieb solcher Publikationsorte. Unterschätzen Sie nicht den Aufwand – Fragen von Nachhaltigkeit, der Verfügbarkeit von Support etc. sollten früh geklärt werden. Falls Sie daran interessiert sind, eine eigene Open-Access-Zeitschrift, -Buchreihe etc. zu gründen, schauen Sie sich um, wo solche Projekte angesiedelt sind und wie sie organisiert sind. Vielleicht gewinnen Sie das Rechenzentrum Ihrer Einrichtung dafür, eigene Plattformen aufzubauen, vielleicht können Sie aber auch das Hostingangebot einer anderen Einrichtung nutzen.[117]




Handbuch CoScience/Freie Lizenzen und Nachnutzung


Bedeutung freier Lizenzen

Ein Kernbestandteil von Open-Access-Definitionen und anderen Offenheitsdefinitionen ist die pauschale Einräumung von Nachnutzungsrechten. Diese Rechte werden in der Regel durch Nutzungslizenzen vergeben und zielen darauf ab, dem Nutzer Rechtssicherheit in der Nachnutzung von Information zu geben.

Sinnvoll ist es dabei, auf schon existierende und standardisierte Lizenzen zurückzugreifen und nicht eine eigene, explizit für ein Dokument oder einen Datensatz abgestimmte Lizenz zu erstellen. Grund dafür ist u. a., dass bei standardisierten Lizenzen die Möglichkeit gegeben ist, diese nachhaltig zu etablieren.

Um eine möglichst breite Nachnutzung zu ermöglichen, wird empfohlen, eine möglichst freie Lizenz (s. a. Abschnitt: Etablierte Lizenzen: Creative-Commons-Lizenzen) auszuwählen. Gerade im Kontext von 'CoScience' scheint eine freie Nutzungslizenz sinnvoll, um das kollaborative Arbeiten, z. B. an einem Text, unkompliziert zu ermöglichen.

Wenn keine Nutzungslizenzen vergeben werden, greift in den meisten Fällen das Urheberrecht. Wann ein Werk dem Urheberrecht unterliegt, regelt in Deutschland das Urheberrechtsgesetz (UrhG). Weiteres dazu findet sich auch im Abschnitt Urheberrecht: Autorinnen bzw. Autoren bestimmen.

Urheberrecht: Autorinnen bzw. Autoren bestimmen

Das deutsche Urheberrecht geht (in der Theorie) von relativ starken Autorinnen und Autoren aus: Wer ein Werk geschaffen hat, kann selber entscheiden, ob und wie es veröffentlicht wird und wie es in Umlauf gebracht wird. Möchte jemand anderes als die Urheberin oder der Urheber das veröffentlichte Werk in Umlauf bringen, verwerten oder verändern, ist dazu eine temporäre oder dauerhafte Erlaubnis der Urheberin oder des Urhebers nötig. Klassischen Verlagsveröffentlichungen liegen oftmals Verträge zugrunde, denen zufolge alle Verwertungsrechte der Urheberinnen und Urheber komplett (für die gesamte Dauer des Urheberrechtsschutzes, für alle Sprachen, für alle Publikationsarten etc.) und exklusiv (so dass zukünftig ausschließlich der Verlag anderen Nutzungsrechte einräumen kann) an den Verlag übertragen wird.

Aber dies geschieht nur, wenn Urheberinnen und Urheber - diejenigen, die erarbeitet und geschrieben haben - einwilligen. Wer einen kostenlosen Zugang und die freie Nutzung der eigenen Werke möchte, wird diesen Weg vermeiden. Dennoch benötigen andere Menschen die belegbare Erlaubnis zur Nutzung. Dies kann in Form eines individuell geschlossenen Vertrages geschehen ("folgende Rechte eingeräumt zur Nutzung des Fotos auf allen Webseiten des Projekts X…") oder in Form von durch die Urheberin oder den Urheber vergebenen Lizenzen, die die Allgemeinheit zur Nutzung unter bestimmten Bedingungen berechtigt.

Etablierte Lizenzen: Creative-Commons-Lizenzen

„Wir empfehlen CC-BY oder eine äquivalente Lizenz als optimale Lizenz für die Veröffentlichung, Verbreitung, Nutzung und Wiederverwendung wissenschaftlicher Arbeiten.“ [118]

Publikationen, die kostenlos im Netz lesbar sind, bedienen sich häufig der 'Creative-Commons-Lizenzen'. Die 'Creative-Commons-Lizenzen' bestehen dabei aus insgesamt sechs verschiedenen Lizenzen, die sich aus der Kombination verschiedener einschränkender Merkmale ergeben. Allen 'Creative-Commons-Lizenzen' ist gemeinsam, dass sie aus drei Elementen bestehen: einem verbindlichen Lizenzvertrag, einer allgemeinverständlichen Beschreibung und einer maschinenlesbaren Fassung.

Während CC-BY und CC-BY-SA sich weitgehend im Einklang mit der Berlin Declaration und der Budapest Open Access Initiative befinden, sind die restlichen Lizenzen im Sinne von Open Access eher problematisch zu sehen. Eine Übersicht gibt die nachfolgende Tabelle:

freie Nachnutzbarkeit eingeschränkte Nachnutzbarkeit
Attribution (CC BY) Attribution-ShareAlike (CC BY-SA)
Attribution-NoDerivs (CC BY-ND)
Attribution-NonCommercial (CC BY-NC)
Attribution-NonCommercial-ShareAlike (CC BY-NC-SA)
Attribution-NonCommercial-NoDerivs (CC BY-NC-ND)

Neuerungen bei der CC-4.0-Lizenzen

Während in früheren Fassungen der 'Creative-Commons-Lizenzen' eine Vielzahl von Portierungen in länderspezifische Fassungen (z.B. Creative Commons Namensnennung 3.0 Deutschland) existierte, sollen die Lizenzen der Version 4 nur noch in Ausnahmefällen portiert werden. An der Einteilung in die genannten unterschiedlich eingeschränkten Varianten hat sich nichts geändert. Änderungen haben sich insbesondere dadurch ergeben, dass nun Datenbanken unter 'Creative-Commons-Lizenzen' gestellt werden können (auch so genannte sui-generis-Datenbanken in den (europäischen) Ländern, in denen überhaupt jemand die Nutzung solcher Datenbanken reglementieren kann). Es wird in den Lizenzen der Version 4.0 festgehalten, dass Text- und Datenmining keine Bearbeitung darstellt und deshalb auch CC-BY-ND-lizenziertes Material in solchen Auswertungen mit aufgenommen werden kann.

CC-Lizenz für Open Access

Als eine Art Standard-Lizenz für Open-Access-Veröffentlichungen hat sich die 'Lizenz Creative Commons Attribution' (CC-BY, im Deutschen: 'Namensnennung') etabliert. Diese Lizenz verzichtet auf Einschränkungen, die mit den Anforderungen der Berlin Declaration kollidieren (NC, ND) oder die die Nachnutzung aus anderen (von manchen Offenheits-Befürworterinnen und -Befürwortern durchaus gewünschten) Gründen beschränken (SA). Weitere Lizenzen die als 'Open' betrachtet werden sind auf der Webseite zur Open Definition aufgelistet.

Lizenzen vergeben

(…)

Forschungsdaten: Besondere Anforderungen

Forschungsdaten und Urheberrecht

Ob Forschungsdaten dem Urheberrecht unterliegen, ist eine oft gestellte Frage, die nicht immer sofort eindeutig beantwortet werden kann. Grundsätzlich unterliegen Rohdaten (z. B. Daten die von einem Gerät produziert wurden) zunächst einmal nicht dem Urheberrecht. Grund dafür ist, dass ein Werk nur nach Urheberrecht geschützt werden kann, wenn es "persönliche geistige Schöpfungen" (UrhG §2 Abschnitt 2) sind. Die Frage, ob die Schöpfungshöhe der Daten ausreichend im Sinne des Gesetzes ist, muss also immer im Einzelfall geprüft und entschieden werden.

Bei Datensammlungen findet sich im Urheberrechtsgesetz (UrhG) in §4 (2) eine Sonderregelung zum Urheber. Im Sinne des Gesetzes unterliegen damit "systematisch oder methodisch angeordnete" (UrhG) Datensammlungen dem Urheberrecht.

Datenschutz

Sobald wissenschaftliche Forschungsdaten einen Personenbezug haben, sind die Vorschriften des Bundesdatenschutzgesetz (BDSG), der Landesdatenschutzgesetze und aus dem Sozialgesetzbuch zu beachten. Dies trifft z.B. oftmals auf medizinische Forschungsdaten zu. Der Datenschutz regelt v. a. den Umgang mit den über eine Person gespeicherten Daten und den Schutz der Persönlichkeitsrechte. Personenbezogene Daten sind nach §3 (1), BDSG „Einzelangaben über persönliche oder sachliche Verhältnisse einer bestimmten oder bestimmbaren natürlichen Person"[119]. Daher müssen Forschungsinstitute oder -archive vor der Speicherung personenbezogener Daten die schriftliche Einwilligung des Betroffenen (gemäß §126 (1) Bürgerliches Gesetzbuch[120]) einholen. Nach dem BDSG gilt in der wissenschaftlichen Forschung ein Anonymisierungsgebot. Das bedeutet, dass ein Datensatz keine Daten mehr enthalten darf, mit denen Personen eindeutig identifiziert werden können.

Die Anforderungen des Datenschutzen sollten nach Möglichkeit bereits bei der Erfassung und Aufbereitung der Daten berücksichtigt werden und nicht zur Einschränkung der Zugänglichkeit oder Nachnutzbarkeit herangezogen werden. Bei weiteren Fragen zum Datenschutz kann auch immer der jeweils in einer Institution zuständige Datenschutzbeauftragte kontaktiert werden.

Lizenzen im internationalen Kontext

Das Urheberrecht richtet sich nach dem so genannten Schutzlandprinzip, so dass die Zulässigkeit von Werken von den Gesetzen desjenigen Staats abhängt, in dem die Nutzung stattfindet. Dieses Prinzip führt bei Internetpublikationen, die in allen Staaten genutzt werden können, zu einer sehr verwirrenden Rechtslage, weil je nach Standort unterschiedliche Regelungen gelten. Probleme für die freie Nutzung wissenschaftlicher Publikationen und Daten könnten auch dort entstehen, wo beispielsweise die Nutzung in Deutschland legal ist (z.B. auf Grundlage der Panoramafreiheit oder eines Zweitverwertungsrechtes), aber von Rechteinhaberinnen und Rechteinhabern z. B. in den USA unter Hinweis auf die US-amerikanische Rechtslage behindert wird.

Jenseits expliziter Lizenzen: Gemeinfreiheit und fair use

  • Erinnerung an nationale Gesetze
  • aber Abschätzung wichtig, wo man sich Ärger einhandelt
  • Verweis auf copyfraud, illegitime Beschränkungen in Archiven, Museen etc. (evtl. noch ein Seitenkommentar zur Stabi Berlin und ihrer Unterzeichnung der Berlin Declaration mit Einschränkung)

Nachnutzung ermöglichen

Es ist gut, wenn Texte einfach gelesen werden können (und wissenschaftliche Daten eingesehen werden können). Doch was kann man damit machen – jenseits des Lesens und Zitierens? Schon das Weitergeben an andere Kolleginnen oder Kollegen bedarf der Erlaubnis der Urheberinnen oder Urheber. Dies gilt erst recht für viele andere Formen der Nachnutzung, insbesondere solche, die das ursprüngliche Werk verändern. Auch die kommerzielle Nachnutzung von Wissenschaftsergebnissen wird häufig kontrovers diskutiert.

Einige Beispiele für die Bearbeitung und Nachnutzung von Texten oder Daten können sein:

  • (Ganze) Texte werden kopiert und verbreitet
  • Teile eines Texte werden kopiert und in einen anderen Text mit einem neuen Kontext eingefügt
  • 'alte' Daten werden mit 'neuen' Daten gemixt und in einen neuen Zusammenhang gebracht (Text- und Datamining)
  • bereits bestehende Daten werden bspweise für eine neue Interpretation ausgewertet

Angesichts von Internet, auch einer sich veränderden Kultur des Umgangs mit vorgefundenen Daten (wie z. B. remixing von Daten, sich daraus ergebener neuer Kontext etc.) und Computerskills ist es besonders wichtig, die rechtlichen Rahmenbedingungen zu formulieren (und als Nachnutzerin und Nachnutzer einzuhalten). Forschungsergebnisse (als Texte, Daten etc.) zugänglich zu machen und auch eine direkte Weiterverwendung zu erlauben (wobei ja Wissenschaft schon immer eher Remix als Schöpfung ist), befördert Wissenschaft unmittelbar. Auch jenseits direkter Kollaboration erlaubt die Nachnutzbarkeit von Materialien die Erstellung von wissenschaftlichen Arbeiten, die auf bereits existierenden Ergebnissen aufbauen.

Eine besondere Bedeutung kommt der Nachnutzbarkeit auch im Kontext von Citizen Science zu.

  • Transfer von Wissenschaft in die Gesellschaft



Handbuch CoScience/Publikation von Forschungsdaten

Kontributoren: Martin Fenner, Marco Tullney

Vermehrt wird in der Wissenschaft über den Umgang mit Forschungsdaten diskutiert. Dank der rasanten technologischen Entwicklung können Forschungsdaten über das Internet verfügbar und nachnutzbar gemacht werden. Verbunden damit ist insbesondere die Erwartung, dass Forschungsergebnisse besser überprüft werden können und dass bereits erhobenen und verwendeten Daten für weitere Forschungsvorhaben nachgenutzt werden können. Zusammengefasst:

  • Nachnutzung: Im Zentrum steht hier die Erwartung, dass einzigartige Daten in anderen Kontexten wiederverwertet werden. Eng verbunden ist damit die Hoffnung, die Effizienz der Forschung zu steigern.[121]
  • Nachprüfbarkeit: Anliegen ist hier, die Transparenz der Forschung zu erhöhen, indem jede und jeder die Daten überprüfen kann.

Der folgende Text beschreibt zehn Punkte, die beim Umgang mit Forschungsdaten bedacht werden sollten.

Was erwarten Förderorganisationen?

Immer häufiger werden Forschende mit sogenannten Data Policies konfrontiert.[122] In diesen formulieren Förderorganisationen Anforderungen an wissenschaftliche Daten, die im Rahmen von geförderten Projekten entstehen.

Bereits 2003 veröffentlichte das National Institute of Health (NIH) eine 'NIH Data Sharing Policy'. Darin werden Antragstellerinnen und Antragsteller, die eine Zuwendung ab 500.000 US-Dollar beantragen, aufgefordert, Aussagen zur Art und Weise des Data Sharings zu tätigen: „The NIH expects and supports the timely release and sharing of final research data from NIH-supported studies for use by other researchers“.[123]

Die Deutsche Forschungsgemeinschaft (DFG) hat das Thema seit 2010 in ihrem 'Leitfaden für Antragsteller' verankert. In diesem Leitfaden werden Antragstellerinnen und Antragsteller aufgefordert, Maßnahmen zum Umgang mit den entstehenden Daten darzulegen. In der Version 04/14 des DFG-Leitfadens heißt es dazu:

„Wenn aus Projektmitteln systematisch Forschungsdaten oder Informationen gewonnen werden, die für die Nachnutzung durch andere Wissenschaftlerinnen und Wissenschaftler geeignet sind, legen Sie bitte dar, ob und auf welche Weise diese für andere zur Verfügung gestellt werden. Bitte berücksichtigen Sie dabei auch - sofern vorhanden - die in Ihrer Fachdisziplin existierenden Standards und die Angebote existierender Datenrepositorien oder Archive.“[124]

Auch informiert eine Webseite der DFG über „Anregungen und Best-Practice Beispiele“ zur Umsetzung dieser Vorgabe.[125]

Darüber hinaus gewinnen sogenannte 'Data Management Plans' an Bedeutung. In diesen müssen Antragsteller detaillierte Informationen zum Umgang mit den im Rahmen eines beantragten Projektes entstehenden Daten beschreiben. So wird z.B. im Rahmen des europäischen 'Rahmenprogramms für Forschung und Innovation HORIZON 2020‘ ein 'Research Data Pilot‘ erprobt. In den 'Guidelines on Data Management in Horizon 2020‘[126] beschreibt die Europäische Kommission das Anliegen der Data Management Plans:

„A further new element in Horizon 2020 is the use of Data Management Plans (DMPs) detailing what data the project will generate, whether and how it will be exploited or made accessible for verification and re-use, and how it will be curated and preserved. The use of a Data Management Plan is required for projects participating in the Open Research Data Pilot. Other projects are invited to submit a Data Management Plan if relevant for their planned research.“

Die Vorgaben der Europäischen Kommission sehen vor, dass Antragstellerinnen und Antragsteller in den Data Management Plans Angaben zu den folgenden Punkten machen:

  • Data set reference and name
  • Data set description
  • Standards and metadata
  • Data sharing
  • Archiving and preservation (including storage and backup)

Forschende sind daher aufgefordert, bereits bei der Konzeption eines Antrags zu überlegen, welche Maßnahmen ergriffen werden müssen, um den Zugang zu den Daten auch über das Projektende hinaus zu sichern (s.a. Abschnitt 3 Wie organisiere ich meine Daten?).

Welche Anforderungen haben Journals?

Ähnliche Anforderungen werden in den data policies von wissenschaftlichen Zeitschriften formuliert. So erwartet z.B. der Open-Access-Verlag PLOS, dass die Daten, die Grundlage eines eingereichten Aufsatz sind, wenn möglich frei zugänglich gemacht werden:

„PLOS journals require authors to make all data underlying the findings described in their manuscript fully available without restriction, with rare exception.“[127]

Bei der Nature Publishing Group heißt es dazu: „authors are required to make materials, data and associated protocols promptly available to readers without undue qualifications“.[128]

Bei PLOS müssen Autorinnen und Autoren darüber hinaus in einem „Data Availability Statement“ die Zugänglichkeit und Nachnutzbarkeit der Daten beschreiben: „When submitting a manuscript online, authors must provide a Data Availability Statement describing compliance with PLOS’s policy. The data availability statement will be published with the article if accepted.“ [129]

Wie organisiere ich meine Daten?

Gerade in kleineren Forschungsprojekten ist der nachhaltige Umgang mit den erhobenen Daten häufig nicht geklärt. Verlässt eine Mitarbeiterin oder ein Mitarbeiter, die/der mit der Auswertung der Daten beschäftigt war, eine wissenschaftliche Einrichtung, gehen häufig auch die Daten - und damit auch das Wissen über die Daten - verloren. Vor diesem Hintergrund ist es wichtig, bereits bei Projektbeginn zu klären, wie mit den Daten umgegangen werden soll. Die folgenden fünf Fragen können dabei helfen, einen organisierten Umgang mit den Daten sicherzustellen:

  • Wer soll die Daten nach Projektende noch nutzen können?
  • Wie wird sichergestellt, dass die Daten auch nach Projektende noch nutzbar sind?
  • Was gibt es im Speziellen zu beachten? (Z.B. juristische oder ethische Besonderheiten.)
  • Wann sollen die Daten anderen Personen zugänglich gemacht werden?
  • Wo sollen die Daten gespeichert und zugänglich gemacht werden?

In der jüngeren Vergangenheit wurden einige hilfreiche Tools entwickelt, die Forschende bei der Formulierung von Aussagen zum Umgang mit Daten unterstützen, z.B. das 'Data Management Plan Tool' des Curation Center der University of California oder das Tool 'DMPonline' des britische Digital Curation Centre. Weitere hilfreiche Informationen inklusive einer Checkliste zum Thema finden sich im ‚Leitfaden zum Forschungsdaten-Management‘[130].

Wie sichere ich meine Daten?

Während in größeren Projekten der Umgang mit den erhobenen Daten häufig geklärt ist, stellt diese Frage gerade kleinere Projekte vor Herausforderungen. Häufig gibt es keine dauerhaften Infrastrukturen zur Speicherung der Daten.

In kollaborativen Projekten werden häufig gemeinsame Netzlaufwerke oder auch Cloud-Lösungen wie Dropbox verwendet, um Daten mit Kolleginnen und Kollegen gemeinsam zu verwalten. Diese Tools bieten jedoch mehrheitlich keine nachhaltige Lösung, die die dauerhafte Speicherung der Daten garantiert.

Vor diesem Hintergrund empfielt sich die Suche nach einem verlässlichen Repositorium, dass die Daten dauerhaft und verlässlich speichert (s. Abschnitt 8: Wie finde ich ein Repositorium?).

Soll ich meine Daten veröffentlichen?

Um den Zugriff und die Nachnutzung von Forschungsdaten zu gewährleisten, ist es sinnvoll, ergänzend zu einem 'traditionellen' wissenschaftlichen Artikeln auch die dazugehörigen Daten, auf denen die Forschungsergebnisse basieren, zu veröffentlichen.

Die Publikation und Auffindbarkeit Ihrer Forschungsdaten über nationale und internationale Informationsportale kann einen wesentlichen Beitrag zum Reputationsgewinn der Datenproduzierenden - auch über die Grenzen Ihrer eigenen wissenschaftlichen Fachcommunity hinaus - leisten.

Durch die Veröffentlichung der Daten, die Grundlage eines Aufsatzes sind, können diese zeitnah nachgenutzt und zitiert werden. Die Zitierung der Daten durch andere Forschende erhöht die Sichtbarkeit und kann die Reputation der Forschung stärken.

Es ist stets zu klären, wie eine mögliche Nachnutzung von Forschungsdaten durch Dritte rechtlich abgesichert werden kann. Die zugelassene Nachnutzung kann von einer völlig freien bis zu einer eher eingeschränkten Nutzung variieren und auf verschiedene Weise festgelegt werden. Dabei müssen insbesondere datenschutzrechtliche und ethische Aspekte beachtet werden (s. a. Freie Lizenzen und Nachnutzung).

Welche Vorteile hat das Data Sharing?

Welche Vorteile das Teilen und Nachnutzen von Forschungsdaten hat, wird in der Illustration des ‚Journals of Open Open Archaeology Data‘ dargestellt:


Bei der Abwägung der Vor- und Nachteile kommt es nicht nur darauf an, die Vorteile des Einzelnen, sondern auch die der (Fach-)Community und der interessierten Öffentlichkeit zu beachten.

Sobald Forschungsdaten geteilt werden, wird die eigene Forschung für andere nachvollziehbar. Sie wird reproduzierbar und kann verifiziert werden. Dies ist ein zentraler Punkt bei der Umsetzung der guten wissenschaftlichen Praxis.

Zusätzlich bietet der offene Zugang zu Forschungsdaten neue Möglichkeiten für die wissenschaftliche Kollaborationen. Dies ist ein wesentlicher Gesichtspunkt beim Thema 'CoScience'. Zum Beispiel können Forschende weltweit über das Netz Daten aus der eigenen oder einer verwandten Disziplin suchen und auffinden und darüber hinaus mit den jeweiligen Daten-ProduzentInnen in den Dialog treten, um z.B. gemeinsam Forschungsvorhaben weiterzuentwickeln. Die Zusammenarbeit kann so auch über die eigene Fachdisziplin hinaus gefördert und um interdisziplinäre Ideen angereichert werden.

Ein weiterer Vorteil des Data Sharing liegt in der Möglichkeit der Nachnutzung gut dokumentierter Daten. Dieses Vorgehen kann beispielsweise bei der wissenschaftlichen Arbeit Zeit einsparen und damit einen effizienteren Umgang mit Forschungsergebnisse ermöglichen, da diese nicht immer wieder von Neuem erhoben werden müssen (s. a. Nutzen Sie Forschungsdaten nach).

Welche Nachteile hat das Data Sharing?

Neben den Vorteilen für das Data Sharing soll hier ein kurzer Blick auf mögliche Nachteile geworfen werden. Ob die genannten Nachteile jedoch ein tragendes Argument gegen das Teilen von Forschungsdaten sind, muss eine Wissenschaftlerin bzw. ein Wissenschaftler im Einzelfall entscheiden. Hier sollte immer die kritische Frage im Fokus stehen, ob das Teilen einen Mehrwert für die 'Community' darstellt oder ob dem Teilen nur der eigene 'Forschungsegoismus' im Weg steht.

Ein oft hervorgebrachter Nachteil beim Data Sharing ist, dass öffentlich zugängliche Daten von anderen für weitere Interpretationen offenstehen und damit verbunden die Befürchtung, dass andere Forscherinnen und Forscher basierend auf den offenen Daten eigene Publikationen produzieren. Deshalb ist es wichtig, dass die Daten auf vertrauenswürdigen Infrastrukturen (Repositorien) zugänglich gemacht werden, bei denen deutliche Zitationshinweise angegeben sind (z. B. die Nennung des Digital Object Identifier - DOI - eines Datensatzes). Dank eines solchen Zitationshinweises kann sichergestellt werden, dass die/der ursprüngliche Daten-Produzentin oder Daten-Produzent Anerkennung - im Rahmen einer Zitation - für sein Data Sharing erhält. Darüber hinaus kann durch die Anwendung von freien Lizenzen der Grad der Nachnutzung festgelegt werden.

Weiter müssen beim Data Sharing rechtliche und ethische Aspekte berücksichtig werden. So müssen z.B. personenbezogenen Daten auf Grund des Datenschutzes anonymisiert werden, bevor sie geteilt werden können (s. a. Freie Lizenzen und Nachnutzung). Dieser Prozess kann sehr aufwändig sein und somit eine Hürde beim Data Sharing darstellen.

Wie finde ich ein Repositorium?

Auf nationaler und internationaler Ebene haben sich in einigen Fachdisziplinen bereits Repositorien zur dauerhaften Speicherung von Forschungsdaten etabliert. Z.B.: Dryad in der Biodiversitätsforschung, Genbank in der Genetik oder PANGAEA in den Geowissenschaften.

Wissenschaftlerinnen und Wissenschaftler sollten bei der Auswahl eines geeigneten Repositoriums u.a. folgende Aspekte berücksichtigen:

  • Passt die Ausrichtung des Forschungsdatenepositoriums auf die Datensätze der eigenen Fachdisziplin?
  • Ist eine langfristige Verfügbarkeit des Repositoriums (z.B. im Hinblick auf Finanzierung und beteiligte Institute/Personen) gewährleistet?
  • Welche Services (z.B. Open Access, persistente Identifikatoren) bietet das Repositorium an?
  • Welche Datenüberlassungsvereinbarungen (für den Datengeber) und Datennutzungsvereinbarungen (für den Datennutzer) gibt es?
  • Welche Metadatenstandards werden verwendet?
  • Wie ist die Anbindung des Repositoriums an (fachspezifische) Suchportale?

Mit der Zunahme der Archivierungsmöglichkeiten für wissenschaftliche Datensätze stehen Forschenden zunehmend auch übergreifende Informationsportale wie z. B. das re3data.org - Registry of Research Data Repository zur Verfügung. Dieses Portal erlaubt u. a. die disziplinspezifische Suche nach geeigneten Repositorien und gibt z. B. Auskunft über Akkreditierung, Verfügbarkeit sowie angebotene Servicemodelle eines Repositoriums.[131]

Welchen Vorteil bieten Data Journals?

Data Journals widmen sich der Beschreibung von Datensätzen. Diese Beschreibungen werden häufig Data Papers oder auch Data Descriptors genannt. In diesen Artikeln werden zentrale Paramter eines Datensatzes beschrieben. So dokumentieren Data Papers z.B. den Erhebungsprozess der Daten und geben detaillierte Auskunft über verwenden Instrumente und Methoden. Darüber hinaus stellen diese Artikel einen beschriebenen Datensatz in Beziehung zu weiteren relevanten Forschungsergebnissen.

Im Rahmen eines Peer-Review-Verfahrens stellen die Data Journals dank Expertinnen und Experten die wissenschaftliche Qualität der beschriebenen Daten auf Basis der jeweiligen Community-Standards sicher. Die Kriterien für die Einreichung von Data Papers und den zugehörigen Daten werden in Policies für die Publikation festgelegt.

Zentrales Anliegen der Data Papers ist es, möglichst alle relevanten Angaben für eine Nachnutzung eines beschriebenen Datensatzes zu liefern. Der Datensatz selbst wird auf einem Repositorium gespeichert. Das Data Paper verweist auf das Repositorium und den dort gespeicherten Datensatz. Werden die Daten nachgenutzt, muss der Nachnutzende das Data Paper und den Datensatz zitieren. Dank dieser Praxis erhält die wissenschaftliche Leistung der Person, die die Daten teilt, Anerkennung.

Aktuell gibt es eine Gründungswelle von Data Journals. Beispiele für Data Journals sind:

Eine Liste von Data Journals findet sich im Wiki Forschungsdaten.org.

Wo finde ich weitere Informationen?

Weitereführende Informationen zum Thema finden sich u.a. im Wiki Forschungsdaten.org oder auch im Handbuch Forschungsdatenmanagement.

Referenzen

  • Pampel, H., & Dallmeier-Tiessen, S. (2014). Open Research Data: From Vision to Practice. In S. Bartling & S. Friesike (Eds.), Opening Science. The Evolving Guide on How the Internet is Changing Research, Collaboration and Scholarly Publishing (pp. 213–224). Heidelberg: Springer. doi:10.1007/978-3-319-00026-8.
  • Tenopir, C. et al. (2011). Data Sharing by Scientists: Practices and Perceptions, PLOS One 6, no. 6 (2011): e21101. doi:10.1371/journal.pone.0021101
  • The Royal Society. (2012). Science as an open enterprise. The Royal Society Science Policy Centre report 02/12. http://royalsociety.org/uploadedFiles/Royal_Society_Content/policy/projects/sape/2012-06-20-SAOE.pdf



Handbuch CoScience/Peer Review

Autorin: Jasmin Schmitz

Kontributoren: Ursula Arning, Isabella Peters

Was ist Peer Review und warum ist es wichtig?

Da wissenschaftliche Ergebnisse und Erkenntnisse weitreichende Folgen für Mensch und Gesellschaft haben können, sollen Wissenschaftlerinnen und Wissenschaftler nicht alles publizieren, was ihnen in den Sinn kommt. Wer wissenschaftliche Ergebnisse publizieren möchte, muss seine Arbeit einer Qualitätskontrolle unterziehen.

Ein zentrales Element im wissenschaftlichen Publikationsprozess ist daher das sogenannte Peer-Review-Verfahren. Damit ist gemeint, dass andere Wissenschaftlerinnen und Wissenschaftler aus dem jeweiligen Feld die in einer Publikation dargestellten Ergebnisse auf Validität prüfen und sie im Hinblick auf die Publikationswürdigkeit bewerten. Gleichzeitig ist das Peer Review auch Mittel, um wissenschaftliches Fehlverhalten wie Plagiate oder Datenmanipulationen aufzudecken (siehe hierzu das Kapitel zu wissenschaftlichem Fehlverhalten in diesem Handbuch).

In den Publikationsprozessen, die von Verlagen organisiert werden, entscheidet die Herausgeberin oder der Herausgeber (eventuell gemeinsam mit einem Gremium – engl. Editorial Board), welche Artikel veröffentlicht werden. Viele Konferenzorganisatoren setzen ebenfalls Peer Review ein, insbesondere dann, wenn die Konferenzbeiträge als Sonderausgabe einer wissenschaftlichen Zeitschrift erscheinen. Bei Konferenzen entscheidet zumeist das Programmkomitee.

Die Peer-Review-Gutachten bilden die entscheidende Grundlage für die Entscheidungsfindung, ob ein Manuskript veröffentlicht wird. Aus Gründen der Lesbarkeit wird sich nachfolgend auf das Zeitschriften-Peer-Review konzentriert.

Geprüft wird in erster Linie, inwieweit ein Artikel zur thematischen Ausrichtung der Zeitschrift passt, inwieweit Forschungsfragen verständlich formuliert wurden und ob der Forschungsansatz der Richtige ist, um die aufgestellten wissenschaftlichen Fragestellungen zu beantworten. Zudem wird die Methodik überprüft und geschaut inwieweit die Ergebnisse reproduzierbar sind. Auch die Originalität und Neuheit werden bewertet. Sofern mit biologischen Materialien gearbeitet wurde, werden auch ethische Aspekte geprüft. Schlussendlich wird auch die „Lesbarkeit“ dahingehend bewertet, ob der Artikel logisch aufgebaut und die Schlussfolgerungen nachvollziehbar sind. Zudem erhalten Autorinnen und Autoren idealerweise auch nützliche Hinweise zur Verbesserung ihrer Artikel[132].

Wie läuft das Peer-Review-Verfahren ab?

Nach der Einreichung einer Publikation bei einer wissenschaftlichen Zeitschrift erfolgt eine Art Vorprüfung. Zu Beginn des Peer-Review-Prozesses steht somit in der Regel zunächst das Desk-Review, die Herausgeberin oder der Herausgeber nimmt eine erste Prüfung vor und entscheidet, ob ein Artikel überhaupt das Peer Review durchlaufen soll oder sofort abgelehnt wird. Im Anschluss wählt die Herausgeberin oder der Herausgeber Gutachterinnen und Gutachter aus, von denen sie/er weiß, dass diese aufgrund ihres Arbeitsfeldes das Manuskript bewerten können, schreibt diese an und bittet um die Erstellung eines Gutachtens. Idealerweise werden Artikel von mehreren „Peers“ begutachtet. Für die Erstellung der Gutachten wird kein Entgelt bezahlt, es ist Teil der Selbstorganisation der Wissenschaft. Einige Verlage „belohnen“ ihre Gutachterinnen und Gutachter dahingehend, dass sie ihnen für einen begrenzten Zeitraum kostenfreien Zugriff auf das Verlagsarchiv gewähren. Die Gutachterinnen und Gutachter erstellen ihre Bewertung und senden diese zurück an die Herausgeberin oder den Herausgeber, der/dem die abschließende Entscheidung obliegt, ob ein Artikel veröffentlicht wird.

Zur Einreichung von Manuskripten sowie zur Organisation und Abwicklung des Peer-Review-Prozesses kommen meist entsprechende Online-Plattformen zum Einsatz. Informationen darüber, wie man Beiträge einreicht, bekommt man auf der jeweiligen Website einer Zeitschrift.

Was passiert nach dem Peer Review?

Das Ergebnis des Review-Verfahrens ist, dass ein Aufsatz entweder zur Publikation angenommen oder abgelehnt wird beziehungsweise unter der Maßgabe angenommen wird, dass bestimmte Punkte überarbeitet werden. Bei schwerwiegenden Mängeln werden Publikationen abgelehnt, können aber nach einer grundlegenden Überarbeitung erneut eingereicht werden. Einige renommierte Zeitschriften haben Ablehnungsquoten von über 90%, über alle wissenschaftlichen Zeitschriften betrachtet, werden etwa die Hälfte aller eingereichten Artikel abgelehnt[133]. Eine Ablehnung muss aber nicht bedeuten, dass ein Manuskript qualitativ schlecht ist. Es werden auch Artikel abgelehnt, die entweder der inhaltlichen Ausrichtung der Zeitschrift nicht entsprechen, oder die den teilweise sehr hohen Standards an Originalität nicht genügen. Ein weiterer Grund für eine Ablehnung kann sein, dass ein innovativer Ansatz von den Reviewern nicht als solcher erkannt wird. Es gibt auch Zeitschriften (z.B. PLOS), die im Hinblick auf Originalität weniger strikt sind, sondern eher prüfen, inwieweit wissenschaftlich exakt gearbeitet wurde. Abgelehnte Artikel werden daher meist von den Autorinnen und Autoren bei einer anderen Zeitschrift erneut eingereicht. Mittlerweile gibt es auch Bestrebungen, dass Autorinnen und Autoren die Gutachten zu den abgelehnten Manuskripten bei Neueinreichungen „mitnehmen“ können (Cascading Peer Review)[134]. Dies verkürzt den Peer-Review-Prozess bei der anderen Zeitschrift und sorgt dafür, dass einmal getane Arbeit nachgenutzt wird. Aus Sicht von Autorinnen und Autorin ist das aber kritisch zu sehen, da diese unter Umständen nicht möchten, dass ersichtlich wird, dass es sich um eine erneute Einreichung handelt[135].

Läuft ein Peer-Review-Verfahren immer gleich ab oder gibt es Varianten?

Peer Review muss als Sammelbegriff für unterschiedlichste Verfahren verstanden werden. Ein Standardverfahren gibt es nicht. Eine Grobunterscheidung der gängigsten Verfahren ist[136]:

  • Single-Blind-Verfahren: Die Autorin oder der Autor erfährt nicht, wer die Gutachterin oder der Gutachter ist,
  • Double-Blind-Verfahren: Die Autorin oder der Autor und die Gutachterin oder der Gutachter wissen wechselseitig nicht, wer der andere ist.

Zudem gibt es erhebliche Unterschiede im Detailgrad, mit denen Manuskripte geprüft werden. Einige Zeitschriften setzen zusätzlich Plagiatssoftware[137] ein oder organisieren ein spezielles Statistik- oder Methoden-Review, um die Ergebnisse zu überprüfen. Andere Zeitschriften überprüfen wiederum eingereichte Abbildungen auf Manipulationen. Eine Kombination unterschiedlicher Maßnahmen ist ebenfalls möglich. Alle angesprochenen Verfahren haben ihre spezifischen Vor- und Nachteile. Beim Double-Blind-Verfahren wird beispielsweise kritisiert, dass Gutachterinnen oder Gutachter anhand der Referenzen erahnen können, wer die Autorinnen oder Autoren sind. Dies gefährdet unter Umständen die Neutralität der Gutachterinnen oder Gutachter, die damit eigentlich erzielt werden sollte. Die Einschätzung eines wissenschaftlichen Artikels ist zudem von der Sorgfalt der Reviewer abhängig und deren wissenschaftliche Überzeugung.

Auch aufgrund der im nächsten Abschnitt genannten Kritikpunkte, wird aktuell das Open-Peer-Review (oder Crowd-Sourced-Peer-Review) als Alternative diskutiert[138]. Hierzu werden Publikationen ohne oder mit lediglich grober Vorprüfung direkt veröffentlicht und die entsprechende Bewertung und Einschätzung der wissenschaftlichen Gemeinschaft überlassen[139]. Neben dem Vorteil, dass sich Möglichkeiten zur Diskussion eröffnen, sind aber auch Probleme erkennbar. Das Schlüsselproblem ist allerdings, eine ausreichende Anzahl an Experten zu gewinnen, die eine kompetente Einschätzung durchführen können. Zudem stellt sich die Frage, wie entsprechende Plattformen organisiert sein müssen, damit sie handhabbar und recherchierbar sind, insbesondere dann, wenn Artikel nicht mehr in Zeitschriften „organisiert“ sind. Bislang wird davon ausgegangen, dass Open-Peer-Review lediglich als Ergänzung zum bisherigen Peer-Review-Verfahren gesehen werden, dieses aber keineswegs ersetzen kann. Auch beim Open-Peer-Review gibt es unterschiedliche Varianten des Ablaufs. In diesem Zusammenhang wird insbesondere diskutiert, inwieweit Kommentare anonym abgegeben werden dürfen. Es besteht die Gefahr, dass dort Rivalitäten zwischen Wissenschaftlerinnen oder Wissenschaftlern ausgetragen oder persönliche Befindlichkeiten vorgetragen werden.

Welche Kritik am Peer Review gibt es?

Peer-Review-Verfahren geraten zunehmend in die Kritik, weil in der jüngeren Vergangenheit computergenerierte Nonsens-Artikel oder schwerwiegende methodische Fehler nicht entdeckt wurden[140]. Einige Gründe für das „Versagen“ des Peer-Review-Verfahrens sind:

  • Überlastung der Peer Reviewer durch das gestiegene Publikationsaufkommen,
  • unpassende Auswahl von Gutachterinnen oder Gutachtern durch das Editorial Board, d.h. die Gutachterin oder der Gutachter kennt sich ggf. auf dem Themengebiet nicht gut genug aus, um den Artikel gewissenhaft zu prüfen.

Zudem wird häufig die Kritik laut, dass Peer-Review-Verfahren sei zu intransparent, weil die Gutachten subjektiv gefärbt sind (beispielsweise wenn sich Gutachterinnen oder Gutachter nicht von ihren jeweiligen Denkschulen lösen können), den Wert einer neuen Idee nicht schätzen oder weil Gutachterinnen und Gutachter mögliche Interessenskonflikte nicht offenlegen (müssen)[141]. Gelegentlich wird auch der Verdacht geäußert, dass Zeitschriften, die von sich behaupten, ein Peer-Review-Verfahren installiert zu haben, keine oder eine nur sehr oberflächliche Prüfung durchführen[142].

Ein weiterer zentraler Kritikpunkt am Peer-Review-Verfahren ist unter anderem auch, dass sich dieses über längere Zeiträume (in der Regel Wochen bis Monate, in Einzelfällen wird auch von Jahren berichtet) hinziehen kann. Hier machen sich aber bereits viele Verlage das elektronische Medium zunutze und publizieren Artikel auch bereits dann, wenn das Peer-Review-Verfahren noch nicht komplett abgeschlossen worden ist. Dies wird dann auch als „OnlineFirst“ o.ä. bezeichnet und trägt dazu bei, dass Artikel frühzeitig sichtbar sind. Dies ist insbesondere dort sinnvoll, wo Zeitschriften noch parallel in einer Printausgabe erscheinen. Eine weitere Alternative ist die Vorabveröffentlichung auf Preprint-Servern (wie z.B. arXiv.org), um die Ergebnisse früh öffentlich zu machen und schon zur Diskussion freizugeben, noch bevor das Peer-Review-Verfahren abgeschlossen ist.

Warum wird trotz Kritik am Peer Review festgehalten?

Experten gehen generell davon aus, dass sich trotz Peer Review Betrugsfälle und die Publikation von minderwertigen Artikeln nicht gänzlich verhindern lassen. Bei aller Kritik wird weiterhin am Peer Review festgehalten, weil es sich schlussendlich doch bewährt hat und in den meisten Fällen – insbesondere wenn Autorinnen und Autoren die Gutachten einsehen und Anmerkungen verarbeiten können – zur Verbesserung der Publikationen beiträgt[143]. Schlussendlich liegt die Verantwortung bei den Autorinnen und Autoren, die nach wissenschaftlichem Selbstverständnis für „wissenschaftliche Reproduzierbarkeit“ und „Redlichkeit“ zu sorgen haben[144]. Das Konzept Peer Review erfährt zudem ständig Anpassungen, um den auftretenden Problemen zu begegnen. Aktuell wird auch diskutiert, inwieweit Altmetrics, also die Messung der Wirkung eines Artikels über die Häufigkeit der Nennung in sozialen Medien wie Twitter oder auf Blogs, Peer Review ergänzen kann[145] (siehe hierzu das Kapitel zum Thema Messung von wissenschaftlichem Impact in diesem Handbuch).




TBD

  1. WEITERLEITUNG Handbuch CoScience/TBD

Handbuch CoScience/Präsentieren

Autor: Sascha Friesike

Kontributoren: Janna Neumann, Martin Mehlberg


Neben dem Publizieren ist das Präsentieren ein weiterer Kanal, den Wissenschaftler und Wissenschaftlerinnen nutzen, um ihre Forschungsergebnisse nach außen zu tragen. Präsentationen können vor unterschiedlichstem Publikum gehalten werden und unterscheiden sich dabei in ihrem Format, der Zielgruppe und der Länge. Eine entsprechende Vorbereitung auf Zeitfenster, Format und Publikum hilft dabei, das Publikum nicht zu langweilen oder zu überfordern. Die folgenden Punkte geben einen Überblick und bieten zudem Referenzen für das vertiefte Literaturstudium zum Thema 'Präsentieren'.

Analog beginnen

Durch all unsere Computer und Tools, die uns dabei helfen gemeinsam Dokumente zu erstellen, vergessen wir oft, dass ein Vortrag kein Satz Folien ist, sondern gesprochenes Wort. Ehe wir uns also daran machen den eigenen Vortrag graphisch umzusetzen, ist es wichtig, ihn erst einmal inhaltlich auszuarbeiten. Dabei hilft die Beachtung einiger Regeln der Rhetorik. Die Anfänge der Rhetorik lassen sich bis ins antike Griechenland zurückverfolgen und ihre Regeln haben sich durch die Erfindung von Powerpoint nicht wesentlich verändert. Unsere Art und Weise, wie wir Vorträge entwickeln hat sich jedoch verändert und so fragt man heute leider viel zu oft "Welche Folie zeige ich am besten?", anstatt zu fragen "Was sage ich am besten?". Auch wenn ein wissenschaftlicher Vortrag ein eigenes Genre ist und sich sicherlich in einiger Hinsicht von anderen Vorträgen unterscheidet, so ist und bleibt er ein Vortrag, für den die Grundlagen des Vortrags gelten. Zu diesen Grundlagen sind etliche Bücher geschrieben worden, die es sich lohnt zu lesen, folgende seien besonders ans Herz gelegt:

  • Seifert, Josef W. (201134), Visualisieren, Präsentieren, Moderieren. Offenbach: GABAL Verlag. -->Was hat es mit der 34 auf sich?
  • Fey, Gudrun (20133), Sicher und überzeugend präsentieren : Motivieren - Strukturieren - Aktivieren, Präsentation, Kurzvortrag, Referat. Regensburg: Walhalla Fachverlag -->Was hat es mit der 3 auf sich?

Folien, Folien, Folien

Eine Folie, die überwiegend mit Text gefüllt ist, ist in fast allen Fällen die schlechteste Präsentationsform und sollte nur dann genutzt werden, wenn es wirklich nicht anders geht und nicht - wie leider all zu oft der Fall - als 'Default'. Ein guter Vortrag 'lebt' von seinen Bildern und dem gesprochenen Wort dazu. Auch wenn es zunächst nicht so erscheint, können viele Aussagen auch mit Bildern und/oder Grafiken visualisiert werden. Dabei sollten Sie jedoch immer bedenken, dass die von Ihnen genutzten Bilder/Grafiken urheberrechtlich geschützt sein können. Ggf. dürfen Sie diese Grafiken dann nur eingeschränkt nutzen und die Vortragsfolien im Nachgang nicht öffentlich zugänglich machen.

Virtuelle Vortragsplanung

Im Idealfall probt man einen Vortrag mindestens einmal, bevor man ihn hält. Viele professionelle Redner sagen, dass sie neue Vorträge sogar mindestens dreimal proben, ehe sie damit vor ein Publikum treten. Jeder, der mehrmals denselben Vortrag halten musste, dem wird aufgefallen sein, dass es von mal zu mal leichter wird. Optimal ist es, den neuen Vortrag wie in einer Generalprobe vor kleinem Publikum vorzutragen und nicht im Kopf durchzugehen. Überlegungen wie "Dann sage ich das, danach sage ich was zu diesem Thema und dann sage ich noch dazu was" sind für den 'Echtfall' wenig hilfreich.

Hält man den Vortrag gemeinsam mit einem Koreferenten bzw. einer Koreferentin, so bietet es sich auch an, diesen gemeinsam zu üben. Heute sind wir mehr und mehr in der Situation, dass beide Vortragende nicht im gleichen Büro oder gar dem gleichen Land arbeiten. So merkwürdig sich die ersten 30 Sekunden anfühlen mögen, so sinnvoll kann zum Proben die sonst kaum genutzte Technologie der Videotelefonie eingesetzt werden, bei mehr als zwei Vortragenden auch in einer Konferenz.

Gut ist es, den gesamten Vortrag einmal durchzusprechen und danach kritisch zu erörtern, was nicht geklappt hat, was man besser machen könnte etc. In Situationen, in denen man nicht vor einem Fachpublikum spricht - wie etwa bei einem öffentlichen Vortrag - empfiehlt es sich das Ganze auch vor einem Laien zu proben, um sicherzustellen, dass alles verständlich ist. Gerne nutzen Wissenschaftlerinnen und Wissenschaftler Fachbegriffe, die ihnen vollkommen geläufig sind, da sie sie ständig verwenden. Für Außenstehende, die diese Begriffe nicht kennen, kann das jedoch bedeuten, dass der gesamte Vortrag unverständlich bleibt.

Zu viele Wechsel vermeiden

Bei der Planung einer Präsentation erscheint es den Beteiligten oft interessant oder gar innovativ, eine Vielzahl an Wechseln zwischen den Vortragenden in die 'Vortragsdramaturgie' einzubauen. Auch bei zwei Vortragenden sieht man es immer wieder, wie diese fast minütlich den virtuellen Staffelstab übergeben. Für die Zuhörenden ist es dabei nicht immer leicht, dem Vortrag zu folgen, da selten klar ist, welche Rollen hier jeweils eingenommen werden. Es kann also festgehalten werden, dass jeder zusätzliche Wechsel in der Sprecherrolle immer didaktisch begründet sein sollte. Kann man das nicht, so sollte man auf den Wechsel verzichten. Sinnvoll kann es sein, den Sprecherwechsel thematisch einzuordnen. Ist der Sprecherwechsel hingegen ohnehin mit einem thematischen 'Bruch' im Vortrag verbunden, kann man im Allgemeinen darauf vertrauen, dass das Publikum den Wechsel nachvollziehen kann.

Die Zielgruppe im Fokus behalten

Wie bereits angemerkt wurde, können sich die Zuhörerinnen und Zuhörer in wissenschaftlichen Vorträgen hinsichtlich ihres jeweiligen Hintergrundwissens deutlich unterscheiden. Dieser Trend wird in letzter Zeit im Besonderen durch die Zunahme an interdisziplinären Forschungstätigkeiten verstärkt. Grundsätzlich ist es wichtig für den Vortragenden zu verstehen, welchen Wissensstand die Zuhörerinnen und Zuhörer haben und dann die Präsentation entsprechend anzupassen. Ein Fachpublikum möchte keine Einführungsvorlesung in sein eigenes Forschungsgebiet hören. Laien, die ein Fachgebiet inhaltlich interessant finden, aber kaum über thematisches Wissen verfügen, sollten daher an ihrem jeweiligen Wissensstand 'abgeholt' werden. Auch die Ergebnisse, die man einem Fachpublikum vorträgt, unterscheiden sich in aller Regel deutlich von denen, die für ein Laienpublikum bestimmt sind. Laien interessieren sich für das große Ganze, wozu die jeweilige Forschung nützlich ist und was damit erklärt werden kann. Ein Fachpublikum interessiert sich besonders für das Forschungsdesign und die genutzte Methodik, da dies im Regelfall die Schwierigkeiten der Tätigkeit genau beschreibt und so fachlich relevante Hinweise gegeben werden können.

Niemand spricht gerne vor einen leerem Saal

Niemand spricht gerne vor einem leeren Saal. Und doch passiert es immer wieder, dass man einen Vortrag halten soll und der Veranstalter dafür den größten Raum der Konferenz auswählt. Es passiert auch immer wieder, dass dieser Saal nur zu einem Bruchteil gefüllt ist (etwa weil es noch andere Vorträge zu derselben Zeit gibt oder weil noch nicht alle Teilnehmerinnen und Teilnehmer angekommen sind oder vielleicht auch, weil das Thema einfach nicht so aufregend ist, wie der Veranstalter dachte). Nur weil ein Vortrag nicht den Raum füllt, bedeutet das nicht, dass er uninteressant oder langweilig ist. Alle Leute die gekommen sind, wollen den Vortrag hören und niemand wünscht dem Vortragenden, dass etwas nicht klappt.

Menschen haben jedoch die Tendenz, sich in größeren Räumen ähnlich wie Gase auszubreiten. Das soll heißen, dass es ganz menschlich ist, die komplette Größe des Raumes zu nutzen und zu versuchen, die mittlere Entfernung zwischen zwei Menschen in diesem Raum so groß wie möglich zu halten. In anderen Worten: Wir verteilen uns über den ganzen Raum. Was für den Zuhörenden bequem ist, ist für den Vortragenden schrecklich, da sie oder er das Gefühlt hat, vor einem fast leeren Raum zu sprechen und dabei fast kein Feedback von den Zuhörenden bekommen kann, da sie zu weit weg sitzen. Es empfiehlt sich in solchen Situationen, das Problem offen anzusprechen, möglicherweise mit einer Prise Humor. Zudem sollte man die Zuhörenden auffordern, sich in die ersten Reihen zu setzen. Der diffuse Raum wird so zu einer Art 'Workshop'-Situation, der direkte Kontakt zu den Zuhörenden fällt leichter und auch die Zuhörerinnen und Zuhörer haben mehr Freude, da sie nicht sehen, dass hinter ihnen ein kompletter leerer Raum ist.

Virtuelle Vorträge

In letzter Zeit lässt sich ein Trend ausmachen, dass immer mehr Vorträge 'virtuell' sind. Virtuelle Vorträge sind solche Vorträge, bei denen sich Vortragende(r) und Publikum nicht im selben Raum befinden. Das kann zum einen bedeuten, dass ein Vortrag aufgenommen wird, um dann ins Netz gestellt zu werden. Zum anderen sind auch solche Vorträge virtuell, die etwa durch eine Webcam in der eigenen Wohnung oder im Büro aufgezeichnet werden. Während Ersteres eine positive Entwicklung ist, die es möglich macht, auch Konferenzen zu verfolgen, die man nicht selbst besuchen konnte, kann Letzteres - wenn keine Regeln und Standards (z.B. Guidelines für Webinare[146]) eingehalten werden - eine schlechte Idee sein. Die Videos haben eine nur durchschnittliche Qualität, sie rauschen, im Hintergrund sieht man das unaufgeräumte Zuhause des Vortragenden und wenn man Glück hat, springt auch noch ein Hund durchs Bild. In aller Regel haben solche Videos eine geringe Reichweite und können mitunter sogar unprofessionell wirken. Zudem bleibt oft unklar, welchen Vorteil das bewegte Bild als Medium hier überhaupt stiftet, etwa wenn über die gesamte Vortragsdauer hinweg nur der Kopf des/der Vortragenden zu sehen ist. Professioneller kann es wirken, eine reine Tonaufzeichnung zur Verfügung zu stellen.

Geschichten statt Fakten

Grundsätzlich fällt es dem Menschen leichter, sich an Geschichten zu erinnern als an Fakten. Dennoch sind viele Vorträge so konzipiert, dass ausschließlich Fakten präsentiert werden, weil nur das als 'wissenschaftlich' angesehen wird. Wenn es den Zuhörern jedoch schwerfällt, dem Vortrag zu folgen, dann ist es letztlich egal, ob es wissenschaftlich ist; es ist in jedem Fall nicht gut. Es kann schon helfen, in den Vortrag die Entstehungsgeschichte der Forschung einzuarbeiten. Damit vermeidet man auch ein rein passives Narrativ wie "Das Projekt folgende Ergebnisse" hin zu einem aktiven Narrativ wie "Danach habe ich mir die Daten angeguckt und eigentlich überhaupt nicht gefunden, was ich haben wollte."

Ein Poster ist kein kurzes Paper

Poster, mit denen Forschungsaktivitäten und -ergebnisse vorgestellt werden, sind ein weit verbreitetes Medium in vielen Wissenschaftsdisziplinen. Leider mangelt es gleichzeitig vielen Wissenschaftlerinnen und Wissenschaftler an der Fähigkeit, ein ansprechendes Poster zu gestalten. Das ist auch nicht erstaunlich, denn schließlich sie sind Wissenschaftler und keine Designer. Nichtsdestotrotz kann ein gut konzipiertes Poster dabei helfen, die eigenen Ergebnisse zu vermitteln und Interessierte über die eigene Forschung zu informieren.

An dieser Stelle führen wir daher ein paar Regeln auf, die man bei der Erstellung eines Posters beachten sollte. Zuerst einmal lässt sich feststellen, dass ein Poster im Regelfall auf einem Paper basiert. Es ist trotzdem nicht besonders sinnvoll, den interessierten Betrachtern eine Druckversion des Papers anzubieten (niemand auf einer Konferenz möchte viel Papier mit sich herumschleppen). Besser ist es, wenn Sie auf Ihrem Poster gut sichtbar einen Link oder einen QR-Code platzieren, der die Interessierten auf detailliertere Information über Ihr Forschungsprojekt verweist. Zudem möchte sich niemand eine lange URL merken oder abschreiben müssen. Daher ist es ratsam, eine kurze URL zu wählen[147]und zusätzlich kleine Kärtchen anzubieten, auf denen die URL und der Name des Posters vermerkt sind.

Im Grunde basiert ein Poster auf einem Paper. Zumindest aber gibt es weitere Informationen zu dem Projekt, wie etwa eine Webseite. Es ist immer sinnvoll den interessierten Lesern weitere Informationen so leicht wie möglich zugänglich zu machen. Gleichzeitig will niemand Papier mit sich herumschleppen. Drucken Sie also nicht ihr Paper aus und bieten es zur Mitnahme an, sondern platzieren Sie einen Link oder ein QR-Code gut sichtbar auf dem Poster. Zudem möchte sich niemand eine lange URL merken oder abschreibe müssen. Daher ist es ratsam a) eine kurze URL (zum Beispiel durch den Dienst Bit.ly) zu wählen und zusätzlich kleine Kärtchen anzubieten, auf denen die URL und der Name des Posters vermerkt sind.

Üblicherweise werden auf einer Konferenz mehrere Poster in einem Raum präsentiert. Daher verfügen die Zuschauer auch nur über eine begrenzte Zeit für das Anschauen eines einzelnen Posters. Als Faustregel gilt daher, dass auf einem Poster nicht mehr Text stehen sollte als im Abstract eines Papers. Wer sich weitergehend interessiert, wird gerne die angegebene URL aufrufen und das gesamte Paper in aller Ruhe lesen oder die Wissenschaftlerinnen bzw. Wissenschaftler zu Details befragen.

Es ist auch nicht sinnvoll, ein Poster in einzelne Abschnitte (zum Beispiel Einleitung, Literaturrecherche, Methode, Ergebnis, Diskussion) zu gliedern und jeden Teil in einer Box abzubilden. Ein Poster ist kein Paper im DIN-A0-Format, sondern es soll sinnvoll und prägnant über die eigene Forschung berichten. Auf einem guten Poster werden Zusammenhänge mit Hilfe von Grafiken verdeutlicht. Größere Textblöcke sollten vermieden werden.

Wer sich eingehender mit den Grundsätzen beschäftigen möchte, die eine gute Posterpräsentation ausmachen, dem sei folgendes Buch empfohlen:

  • Carter, Matt (2013), Designing Science Presentations: A Visual Guide to Figures, Papers, Slides, Posters, and More. Amsterdam: Academic Press.



Handbuch CoScience/Aspekte der Kommunikation mit Wissenschaftsblogs


Einleitung

Wissenschaftsblogs stellen ein sehr gutes Mittel dar, um mit Fachkolleginnen und -kollegen sowie der interessierten Öffentlichkeit zu kommunizieren und Ergebnisse aus der laufenden Forschung zu publizieren. Dies lässt sich formal und technisch begründen: Blogbeiträge sind im Internet frei zugänglich und damit über Suchmaschinen auffindbar und im Netz sichtbar. Blogs sind technisch einfach zu bedienen, die Software ist in der Grundausstattung zumeist kostenlos, wenn auch mit Werbung versehen. Blogs bieten die Möglichkeit, Einblicke in die eigene 'Werkstatt'[148] zu geben und Zwischenergebnisse zu präsentieren. Über die Kommentarfunktion kann man mit der Fachcommunity und der Öffentlichkeit in einen Austausch treten, womit wissenschaftliche Diskussion direkt, in Echtzeit und an verteilten Orten geführt werden kann und dies früher, als es bisher zumeist der Fall war. Blogs ermöglichen neben der Publikation von Texten auch das Einbinden von Hyperlinks sowie multimedialen Formaten wie Abbildungen, Videos und MP3-Dateien. Blogbeiträge können problemlos und transparent aktualisiert und damit auf dem neuesten Stand gehalten werden.

Potenziell stellen Wissenschaftsblogs eine Konkurrenz für die klassischen Kommunikations- und Publikationsorte wie Zeitschriften dar. In der Praxis scheinen sie aber die bisherigen Praktiken der wissenschaftlichen Kommunikation wie Gespräche, Vorträge, E-Mails und klassische Veröffentlichungen um ein neues Format zu ergänzen. Nach heutigem Stand verdrängen Wissenschaftsblogs bisherige Kommunikationsformate nicht, sondern bieten über ihre spezifischen Eigenschaften – und hier vor allem der vernetzten, direkten, schnellen und multimedialen Kommunikation und der Möglichkeit des Austauschs über Kommentare – eine tatsächlich andere und zusätzliche Form der Wissenschaftskommunikation. Dies wird in äußerst vielfältiger Weise genutzt, wie ein Blick auf die derzeitige bunte und lebendige Blogpraxis zeigt (siehe unten).


Warum bloggen?

Die Gründe, warum Wissenschaftlerinnen und Wissenschaftler bloggen, sind sehr vielfältig und individuell geprägt.[149] Zunächst sind Wissenschaftsblogs Publikations- und Kommunikationsorte, über die der Bloggende frei und nach eigenem Ermessen verfügen kann. In der Freiheit, Inhalt, Stil, Beitragslänge und Publikationsrhythmus im Wissenschaftsblog selbst bestimmen zu können, liegt eine der Stärken dieses Formats. Diese Selbstbestimmung ist auch ein Grund, warum Wissenschaftsbloggen Spaß macht.

Zu den im Wissenschaftsbereich immer wieder genannten Gründen, warum gebloggt wird, gehören z.B.:

  • Inhalte im Open Access veröffentlichen
  • Thesen ausprobieren, Gedanken strukturieren
  • Selbstkritische Reflektion des eigenen Tuns
  • Schreiben üben
  • Blogbeiträge als Vorstufe für einen Vortrag, eine Publikation erarbeiten
  • Austausch und Diskussion
  • Vernetzen, Gleichgesinnte finden
  • Dokumentation eines Forschungsprojektes, Archivfunktion, digitaler Zettelkasten, Aufbau einer thematischen Informationssammlung
  • Aufbau einer digitalen Identität, Eigen-PR, PR für ein Projekt
  • Publikationsprozess durchlaufen: Loslassen üben
  • Spaß am Bloggen

Diese Liste ließe sich ohne Schwierigkeiten um weitere Punkte verlängern, gibt es doch vermutlich so viele Gründe zu Bloggen, wie es Wissenschaftsbloggende gibt.[150] Gewöhnlich ändern und erweitern sich die Gründe, wenn man mit dem Bloggen begonnen hat und es können Gründe für das Bloggen zentral werden, an die man zu Beginn gar nicht gedacht hat.

Achim Landwehr, Professor für Geschichte an der Universität Düsseldorf, formuliert die Gründe, warum er bloggt, so:

"Wenn ich also im Netz blogge, warum tue ich das? Weil es eine wichtige Möglichkeit ist, die Wissenschaft aus ihren spezialisierten Kreisen herauszuholen; weil es eine Einladung an diejenigen sein kann, die noch nicht einmal wussten, dass sie nichts von dem wussten, was sie per Suchmaschine gefunden haben; weil es eine unverzichtbare Erweiterung wissenschaftlicher Kommunikation ist. Papierwelt und Netzwelt haben sich dabei schon längst verschränkt. Es sind nicht nur Blogs, die zu Büchern werden, es sind nicht nur Internetinhalte, die auf Bücher verweisen, es sind ebenso zahllose Artikel, die nicht mehr in Papierform erscheinen, weil sie schon im Netz stehen, und es sind unzählbare Fußnoten, die sich mit Links anfüllen. Für Qualität an sich bürgt weder das eine noch das andere Medium. Dafür sind schon die Menschen verantwortlich, die hinter den Inhalten stehen, ganz gleich wo sie erscheinen."[151]

Ein Blogprojekt entwickeln und ein Blog eröffnen

Mit dem Wissenschaftsbloggen zu beginnen ist denkbar einfach: WordPress, Blogger und Tumblr sind gängige Blogsoftware, mit denen man mit wenigen Klicks und einer Anmeldung ein Weblog kostenlos eröffnen kann. In ihren Grundfunktionen sind die Angebote zumeist kostenlos, allerdings muss Werbung auf dem eigenen Blog in Kauf genommen werden. In der kostenlosen Version gibt es zumeist keine eigenständige URL, sondern eine URL wie titeldesblogs.wordpress.com.

Grundsätzlich ist es sinnvoll, sich zunächst Gedanken zu machen über den Titel des Blogs, ggf. Untertitel, die URL, ggf. Mitautoren, in welcher Sprache man bloggen möchte, wie die Einstellung der Kommentare erfolgen soll (ob moderiert oder frei) sowie über die generellen Ziele, die man mit dem Bloggen verfolgt. Anders als bei einer Homepage ist es nicht notwendig, sich vorweg eine Struktur für das Blog zu überlegen. Generell gibt es eine umgekehrt chronologische Reihenfolge, das heisst der neueste Beitrag steht immer oben. Der inhaltliche Zugang über Schlagworte und ggf. auch Kategorien wächst mit jedem Blogbeitrag (siehe unten Abschnitt Bloginhalte strukturieren und vernetzen: Kategorien, Schlagworte, Blogroll und Links).

Es wird empfohlen, das Impressum des eigenen Blogs auszufüllen. Außerdem sollten die eigenen Bloginhalte unter einen Creative Commons-Lizenz gestellt werden (siehe unten Abschnitt 9). Seit September 2013 vergibt die Deutsche Nationalbibliothek ISSN für Wissenschaftsblogs. Diese kann dort direkt beantragt werden, sobald das Blog einige Zeit aktiv ist.

Es ist ratsam, sich einer Blogplattform oder Bloggemeinschaft anzuschließen, um von vornherein die Sichtbarkeit und Vernetzung des eigenen Weblogs zu erhöhen. Darüber hinaus profitiert man von der bereits etablierten Leserschaft dieser Portale sowie vom technischen Know-How der Gemeinschaft bzw. der Portalbetreiber.

Für Geisteswissenschaftler, die ihr Blog nicht selbst hosten möchten oder können und sich zudem von Anfang an in ihrer Community vernetzen wollen, bietet die Blogplattform de.hypotheses.org eine Alternative. Das Angebot der Plattform ist kostenlos und umfasst u.a. das Aufsetzen, Hosting und Archivieren der Blogs sowie technischen Support per E-Mail, über die sozialen Netze oder per Telefon. Die Blogbeiträge der Community werden über die Sozialen Medien der Plattform verteilt, womit eine große Sichtbarkeit und Verbreitung erreicht wird. Von Vorteil ist außerdem die europäische Vernetzung im Portal. Das Angebot richtet sich an die wissenschaftliche Fachcommunity. Ein Blogantrag wird online auf der Unterseite "Blog eröffnen" von de.hypotheses.org gestellt.

Wissenschaftliche Blogs: Welche Typen lassen sich unterscheiden?

Idealtypisch werden drei Arten von wissenschaftlichen Blogs unterschieden: 1. Blogs einer Wissenschaftlerin oder eines Wissenschaftlers, in denen die Person und ihr (nicht nur) wissenschaftliches Tun im Mittelpunkt stehen. 2. Themenzentrierte Wissenschaftsblogs, die sich an die eigene Fachcommunity, aber auch an die interessierte Öffentlichkeit wenden. 3. Thematische Forschungsblogs, die sich in erster Linie an Expertinnen und Experten aus derselben akademischen Disziplin wenden und in denen aus der laufenden Forschung berichtet wird.[152]

Die hier vorgeschlagene Typologie von Wissenschafsblogs dient als Anregung für diejenigen, die selbst ein Blog eröffnen wollen. Sie bildet die lebendige und bunte Wissenschaftsblogosphäre in ihrer Komplexität nur in Teilen und vor allem idealtypisch ab. Die Blogpraxis zeigt viele Mischformen der hier aufgeführten Blogtypen. Prinzipiell können Wissenschaftsblogs alleine oder als Gemeinschaftsblogs geführt werden. Wissenschaftsblogs können einem engen Thema gewidmet oder themenübergreifend sein. Wie die Beobachtung zeigt, zeichnen sich formal die folgenden Typen ab:

  • themenübergreifende Wissenschaftsblogs
  • themenzentrierte Forschungsblogs
  • Dissertations-/Habilitationsblogs
  • Blogs zu einem Forschungsprojekt
  • Blogs von Forschungseinrichtungen (Institut, Bibliothek, Archiv, ...)
  • Themenblog
  • Tagungsblogs
  • Seminarblogs
  • Quellenblogs
  • Blogs zu einer Debatte
  • Methodenblogs
  • Blogs zu einer Publikation
  • Fotoblogs
  • wissenschaftliche Comicblogs
  • ...

Weitere Formen sind denkbar und werden sich sicherlich in den nächsten Jahren herausbilden.

Worüber bloggen? Themen für ein Wissenschaftsblog finden

Die Frage, was in Wissenschaftsblogs publiziert wird, soll hier nicht normativ beantwortet werden, denn erlaubt ist, was gefällt. Prinzipiell bieten Blogs die Möglichkeit, losgelöst von gängigen Beschränkungen des Wissenschaftsbetriebs eigene Textgenres, Inhalte und Stile auszuprobieren. Dies kann, muss aber nicht genutzt werden. Eine Besonderheit ist dabei, dass aus der laufenden Forschung berichtet wird und viele Wissenschaftsblogs Werkstattberichte enthalten. Geschrieben wird dann über die eigenen Schritte, Fortschritte, Rückschritte, Zögerlichkeiten, Verunsicherungen, Blockaden, Frust oder Entdeckerfreude. Damit können sich Blogbeiträge von 'fertigen' Beiträgen in Zeitschriften oder Sammelbänden unterscheiden.

Bei den Beiträgen kann grundsätzlich unterschieden werden zwischen dem unkommentierten Publizieren von Links oder Hinweisen, und ausgearbeiteten, einer wissenschaftlichen Fragestellung folgenden Blogbeiträgen. Die Frage, worüber gebloggt wird, ist darüber hinaus sicherlich abhängig von den eigenen Blogzielen sowie vom Blogtyp, den man betreibt. Ein Blick auf die derzeitige Blogpraxis von Wissenschaftlerinnen und Wissenschaftlern bietet generelle Anregungen zu möglichen Themenkategorieren:

  • Hinweise auf Neuerscheinungen aus dem eigenen Themenbereich
  • Hinweise auf Veranstaltungen / Ausstellung etc., an denen man teilnimmt, die man organisiert, die im eigenen Themenbereich stattfinden
  • weitere Neuigkeiten aus den eigenen Interessensgebieten
  • Meta-Themen der eigenen Arbeit: z.B. Archiverfahrung, Erfahrung aus der Lehre
  • Schriftliche Kurzinterviews mit Kollegen oder für die eigene Arbeit interessante Personen
  • Vorstellung ähnlicher Projekte (vielleicht als Gastbeitrag)
  • Vorstellen einer Quelle, die man im Rahmen der eigenen Recherche gefunden hat
  • Methodenorientierte Beiträge
  • Einzelaspekte der eigenen Forschungsarbeit

Anregungen für Blogthemen kann man sich aus der Wissenschaftsblogosphäre holen. Auch Twitter ist eine geeignete Nachrichtenquelle, um Themen für das eigene Wissenschaftsblog zu finden.[153] Generell gilt hier, dass es vor allem am Anfang schwieriger sein kann, geeignete Themen für das eigene Weblog zu finden. Wie so oft macht hier Übung den Meister und regelmäßiges Bloggen und Lesen anderer Wissenschaftsblogs führt auch dazu, dass einem Themen für das Bloggen wie von alleine einfallen.

Wer ohnehin das Ziel verfolgt, sich mit dem Wissenschaftsblog zu vernetzen, sollte sich um Gastbeiträge bemühen und Kolleginnen und Kollegen, die zu ähnlichen Themen oder einem ähnlichen Aspekt arbeiten, einladen, ihr Projekt auf dem Wissenschaftsblog vorzustellen.

Laut einer Ende 2013 durchgeführten Umfrage in den USA bloggen 41% der Wissenschaftsblogger Kritik am akademischen Betrieb.[154]

Wie bloggen? Einen persönlichen Stil entwickeln

Was bisher über Blogtypen und Beiträge gesagt wurde, gilt auch für den Schreibstil, der in Wissenschaftsblogs angewandt wird: Auch hier gilt, dass es keine engen Vorgaben gibt und Wissenschaftsbloggende von größtmöglichen Freiheiten profitieren können. Gerade diese Befreiung von oftmals als beengend wahrgenommenen wissenschaftlichen Schreibgepflogenheiten ist mit dafür verantwortlich, dass Wissenschaftsbloggen Spaß macht.

In der Praxis sind Blogbeiträge zumeist kurz, umfassen manchmal nur einen Link. Im Stil sind sie persönlich und subjektiv gefärbt. Sie können in Ich-Form geschrieben werden, was in wissenschaftlichen Texten ansonsten oftmals als deplaziert gilt. Viele Blogbeiträge unterscheiden sich aber nicht grundsätzlich von Artikeln in wissenschaftlichen Publikationsorganen und entsprechen den wissenschaftlichen Gepflogenheiten in Stil und Zitierform vollauf.

Sabine Scherz gibt in einem Beitrag Tipps für das Schreiben von Blogbeiträgen in Wissenschaftsblogs. "Schreiben Sie einfach!", ist dabei ihre Regel Nummer eins.[155] Das bedeutet möglichst kurze Sätze und keine verwinkelten Einschübe. Dies gilt umso mehr, da Blogtexte zumeist online gelesen werden. Weitere Tipps von ihr sind Authentizität, Begeisterung rüber bringen und kurze Texte schreiben. Oftmals ist es sinnvoller, aus einer längeren Story einen Mehrteiler zu machen als nur einen, aber langen Beitrag zu veröffentlichen.

Auch beim Schreiben gilt: Ausprobieren! Ein Wissenschaftsblog eignet sich hervorragend, um sich im Schreiben zu üben. Es gehört auch zur Praxis, Blogbeiträge befreundeter Wissenschaftlerinnen und Wissenschaftler Korrektur zu lesen und dafür im Gegenzug eigene Artikel korrigiert zu bekommen.

Weitere Hinweise zum wissenschaftlichen Schreiben finden Sie im Kapitel 'Schreiben' in diesem Handbuch.

Bloginhalte strukturieren und vernetzen: Kategorien, Schlagworte, Blogroll und Links

Blogbeiträge werden in umgekehrter chronologischer Reihenfolge auf dem Blog angezeigt, das heisst der neueste Beitrag steht immer ganz oben. Um einen inhaltlichen Zugriff auf Ihr Blog zu gewährleisten, werden Schlagworte für einzene Beiträge vergeben und die Beiträge Kategorien zugeordnet, die Sie vorher festlegen. Die Schlagworte können dann in einer Schlagwortwolke (Cloud Tag) angezeigt werden. Das am häufigsten verwendete Schlagwort ist dabei am größten.

Es ist sinnvoll, möglichst immer die gleichen Schlagworte zu vergeben. Man sollte für sich vorher festlegen, beispielsweise wie bei den Schlagworten in Bibliothekskatalogen immer den Singular eines Wortes zu verwenden und nicht einmal "Blog", ein anderes mal "Blogs" verwenden. Zumeist hilft die Software des Blogs dabei, indem bereits verwendete Schlagworte angezeigt werden, so dass auch Tippfehler vermieden werden können. In Katalogen werden zumeist nicht mehr als fünf Schlagworte pro Beitrag verwendet. Im Einzelfall kann es sinnvoll sein, von dieser Regel abzuweichen. Schlagwortkategorien sind: Personenamen, geographische Namen, Sachschlagworte, Zeitschlagworte und Formschlagworte (Karte, Quelle, Atlas, Brief).

Die inhaltliche Erschließung über Kategorien wächst in der Regel mit der Anzahl der Artikel. Oftmals werden in den Blogs formale und inhaltliche Kategorien vermischt. Die am häufigsten verwendeten formalen Kategorien sind z.B. 'Rezensionen', 'Tagungen', 'Veröffentlichungen', 'Projektmitarbeiter', 'Ausstellungen'. Inhaltliche Kategorien richten sich nach dem Thema Ihres Blogs. Sie sollten eher weit gefasst sein.

Ein typisches Werkzeug für die Vernetzung in der Blogosphäre ist die sogenannte 'Blogroll'. Darunter versteht man eine Linkliste von thematisch ähnlichen oder einfach interessanten Blogs, die zumeist auf der Startseite des Blogs in einem Widget angezeigt werden. Da Verlinkung und Vernetzung zentrale Elemente von Blogs sind, sollten Sie diese Möglichkeit ausgiebig nutzen.

Interaktivität entwickeln: Kommentare und Vernetzen

Es wird oftmals beklagt, dass in Wissenschaftsblogs zu wenig kommentiert wird bzw. dass die Anzahl der Kommentare rückläufig ist. Unklar ist derzeit, ob es in dieser Hinsicht einen signifikanten Unterschied zwischen geistes- und naturwissenschaftlichen Blogs gibt. Für die Rückläufigkeit der Anzahl könnten die Sozialen Netze verantwortlich sein, haben sich doch manche Diskussionen auf Twitter, Google+ oder Facebook verlagert. Da Interaktion jedoch als ein zentraler Punkt bei der Kommunikation mit Wissenschaftsblogs gesehen wird, wird durch das Ausbleiben von Kommentaren eine der grundsätzlichen Legitimationen des Wissenschaftsbloggens berührt. Eine der häufig gestellten Fragen ist daher, wie man mehr Interaktivität auf dem eigenen Blog generieren kann. Dabei sollten Kommentare jedoch nicht als Selbstzweck missverstanden oder überschätzt werden, zumal auch die Qualität der Kommentare eine wesentlich Rolle spielt, um als hilfreich oder anregend wahrgenommen zu werden.

Zunächst sei angemerkt, dass generell Meta-Themen häufiger Kommentare erhalten als thematische wissenschaftliche Blogbeiträge, ganz einfach deshalb, weil der Kreis derjenigen, die sich als Experten trauen, etwas dazu zu sagen, bei wissenschaftlichen Themen kleiner wird. Auch werden Beiträge, die einen pointierten Standpunkt haben eher kommentiert, als rein deskriptive Texte, die nicht zur Diskussion herausfordern. Wer also Kommentare provozieren möchte, sollte in seinen Texten polemisierend Stellung beziehen, etwas, was nicht unbedingt immer zu den Beiträgen im Wissenschaftsblog passt.

Zu bedenken ist außerdem, dass Kommentare und Vernetzung in Wissenschaftsblogs keine Einbahnstraße sind. Wer Kommentare bei sich im Blog haben möchte, sollte anfangen, in anderen Weblogs zu kommentieren. Tipps dazu, wie man 'richtig' kommentiert, finden sich in einem Blogbeitrag von John Scalzi.[156] Dazu gehört auch, ein möglichst umfangreiches Verlinken anderer Beiträge und das Vernetzen mit anderen Blogs, eine Aufnahme von thematisch ähnlichen oder interessanten Weblogs in eine Blogroll (siehe oben), die regelmäßig gepflegt und erweitert werden sollte. Nur wer den Aspekt der Vernetzung und der Interaktion, die das Soziale Netz im Allgemeinen und Weblogs im Besonderen prägen, selbst ernst nimmt, wird mit dem eigenen Blog Teil dieses Netzes und kann Kommentare erwarten. Oftmals dauert es auch eine Zeit, bis ein neues Blog wahrgenommen wird und Kommentare erhält. Auch aus diesem Grund ist ein Anschluss an eine Blogplattform sinnvoll, bekommt man dort doch die Leserschaft quasi gleich mitgeliefert.

Im umgekehrten Fall kann es passieren, dass man Kommentare im eigenen Wissenschaftsblog erhält, auf die man aufgrund des Stils und Inhalts gerne verzichtet hätte. Nicht vergessen, dass Sie verantwortlich für Ihren Publikationsort 'Wissenschaftsblog' sind und damit auch dafür, was in den Kommentaren steht. Volksverhetzende Kommentare dürfen Sie ohnehin nicht freischalten bzw. müssen Sie schnellstmöglich löschen. Beleidigende und unsachliche Kommentare müssen Sie nicht freischalten, zumal die Gefahr besteht, dass dieser Ton dann bei den anderen Kommentatoren Schule macht. Auf keine Fall sollten Sie Kommentare inhaltlich ändern oder Teile daraus löschen. Wenn Sie sich für eine Publikation entscheiden, dann in ihrer originalen Form.

Als 'Hausherrin' bzw. 'Hausherr' Ihres Blogs sollten Sie außerdem Interaktivität zeigen und auf die Kommentare eingehen und die Diskussion lenken.

Wann ist ein Wissenschaftsblog erfolgreich?

Der Erfolg eines Wissenschaftsblogs richtet sich in erster Linie daran, mit welchen Zielen und aus welchen persönlichen Gründen die oder der Bloggende das eigene Wissenschaftsblog betreibt. Wer in erster Linie Schreiben üben und sich im Durchlaufen eines Publikationsprozesses erproben möchte, wird vorrangig auf die eigene Bewertung des Schreibprozesses sowie u.U. auf Rückmeldungen bezüglich des Stils angewiesen sein.

Wem es um Verbreitung und Archivierung von Inhalten, um Vernetzung und um Sozialprestige geht, wird die Statistiken des eigenen Blogs im Auge behalten und die Anzahl der Zugriffe über die Zeit verfolgen. Wichtig sind in dieser Optik außerdem Kommentare zu den Beiträgen sowie Trackbacks und Pingbacks, die darauf hinweisen, dass das Blog in anderen Wissenschaftsblogs zitiert wird. Hinweise zu Blogstatistiken sowie zur Tatsache, dass alles immer "eine Frage der Interpretation" ist, finden sich in einem Blogbeitrag von Wenke Bönisch.[157]

Die rein quantitative Messung des Erfolgs des eigenen Blogs über die Statistiken wird durch eine qualitative Komponente ergänzt: Wichtig erscheint nicht nur der hohe Zugriff, sondern die Wahrnehmung durch die Personen, die an einem ähnlichen Thema arbeiten und mit denen eine Vernetzung daher besonders sinnvoll erscheint. Kevin Smith hat das Konzept des "unerwarteten Lesers"[158] entwickelt, sind Blogbeiträge doch Open Access zugänglich und können so Personen über Suchmaschinen oder Links auf das eigene Weblog gelangen, die bisher nichts von dessen Existenz wussten.

Darüber hinaus weist das Konzept der "stillen Konversation"[159] auf eine Wahrnehmung der Blogs hin, die über den statistisch messbaren, letztlich homogenen Bereich der Blogosphäre hinaus weist. Gemeint ist damit, wenn man im analogen Raum beispielsweise am Rande einer Tagung auf einen Blogbeitrag angesprochen wird oder über andere Wege wie per E-Mail Rückmeldung zum Wissenschaftsblog erhält.

Damit ein Weblog Aufmerksamkeit, Kommentare und eine regelmäßige Leserschaft erhält, sind laut Marc Scheloske drei Aspekte zu beachten: Persönlichkeit, Frequenz und Dialogfähigkeit.[160] Mit Persönlichkeit ist gemeint, dass die Beiträge die Persönlichkeit des Bloggenden deutlich machen. Sie sollten engagiert und pointiert geschrieben sein und die Meinung des Wissenschaftsbloggenden deutlich machen und damit zum Kommentieren auffordern. Als Mindestfrequenz für die Veröffentlichung von Blogbeiträgen sieht Scheloske einen Beitrag pro Woche an. Schließlich sollte der Wissenschaftsbloggende seine Dialogfähigkeit unter Beweis stellen, indem er auf die Kommentare zu seinen Beiträgen eingeht und Fragen beantwortet. Spätestens jeder fünfte Kommentar sollte demnach wieder vom Bloggenden selbst kommen.

Rechtliche Fragen rund ums Bloggen

Wissenschaftsbloggen wirft eine Reihe von rechtlichen Fragen auf, die von der Ausgestaltung eines Impressums über die Nutzung von Abbildungen und Videos bis hin zur Lizenzierung eigener Texte reicht.

Prinzipiell gelten für Wissenschaftsbloggende dieselben rechtlichen Bestimmungen wie für die Ersteller von Webseiten. Bei der Übernahme von Inhalten (Bild, Video, Text, Tonaufnahme) für das eigene Blog müssen Urheberrechte beachtet werden. Wichtige Hinweise zum Urheberrecht, zum Impressum, zur Nutzung von Bildern und zu weiteren rechtlichen Fragen bietet die Artikelserie „Blog und Recht“ im Weblog Archivalia, derzeit in sieben Teilen:

Um die Zirkulation von digitalen Inhalten im Internet zu vereinfachen, wurde mit Creative Commons eine Initiative entwickelt, mit der auch eigene Inhalte (Text, Bild, Ton, Video...) für die weitere Benutzung lizenziert werden können (zu Creative Commons Lizenzen siehe auch Beitrag 'Freie Lizenzen und Nachnutzung'). Für das eigene Wissenschaftsblog ist die CC-Lizenz BY, empfehlenswert.[161]

Wissenschaftsblogs finden

Blogbeiträge können mit Suchmaschinen einfach gefunden werden, da sie in der Regel öffentlich Open Access publiziert sind. Möchte man gezielt Wissenschaftsblogs zum eigenen Themenbereich finden, so bietet sich der Weg über wissenschaftliche Blogportale an.

Für die Geistes- und Sozialwissenschaften ist auf europäischer Ebene das nicht-kommerzielle Blogportal hypotheses.org und seine Sprachunterportale wie z.B. de.hypotheses.org für den deutschsprachigen Bereich eine erste Anlaufstelle. Hypotheses.org bietet einen Katalog, der die Blogs der Plattform verzeichnet. Der Zugang darin ist nach Blogtyp, Sprache, Land der Publikation oder auch Thema möglich. Ein Blogaggregator für die deutschsprachige Geschichtswissenschaft ist Planet Clio.

Für die Naturwissenschaften ist die vom Spektrum-Verlag betriebene Blogplattform SciLogs - Tagebücher der Wissenschaft von Bedeutung.

Weitere Blogportale bzw. Verzeichnisse für Wissenschaftsblogs sind ScienceSeeker und Research Blogging.

Einige Universitäten haben Plattformen für die Wissenschaftsblogs ihrer Mitarbeiterinnen und Mitarbeiter eröffnet, dazu gehören das Standford Blog Directory, die Übersicht der Johns Hopkins University oder das Portal der Université Paris Descartes 5.

Darüber hinaus existieren Blogverzeichnisse wie das als Wiki organisierte Academic Blog Portal, das jedoch in den letzten Jahren nicht mehr gepflegt zu sein scheint.

Referenzen für weitere Informationen zum Wissenschaftsbloggen

Literatur:

Anita Bader/Gerd Fritz/Thomas Gloning: Digitale Wissenschaftskommunikation 2010–2011. Eine Online Befragung,Gießener Elektronische Bibliothek 2012 [geb.uni-giessen.de/geb/volltexte/2012/8539/].

Dacos, Marin: La conversation silencieuse, Blogbeitrag 23.7.2009, in: Blog: Homo Numericus [blog.homo-numericus.net/article191.html].

Graf, Klaus, König, Mareike: Forschungsnotizbücher im Netz: Weblogs in der deutschsprachigen Geschichtswissenschaft, in: WerkstattGeschichte 61 (2012), S. 76–87, PDF: http://werkstattgeschichte.de/werkstatt_site/archiv/WG61_076-087_GRAF_NETZ.pdf.

Haber, Peter / Pfanzelter, Eva (Hg.): Historyblogosphere. Bloggen in den Geschichtswissenschaften, München (Oldenbourg) 2013,

http://www.degruyter.com/view/product/216968. ISBN 978-3-486-75573-2.

König, Mareike: Die Entdeckung der Vielfalt: Geschichtsblogs auf der internationalen Plattform hypotheses.org, in: Peter Haber, Eva Pfanzelter (Hg.): Historyblogosphere. Bloggen in den Geschichtswissenschaften, München (Oldenbourg) 2013, S. 181–197. Online unter: http://www.degruyter.com/view/books/9783486755732/9783486755732.181/9783486755732.181.xml.

Lugger, Beatrice, Worüber Wissenschaftler bloggen, in: Quantensprung, 28.11.2013, http://www.scilogs.de/quantensprung/worueber-wissenschaftler-bloggen/.

Mounier, Pierre: Die Werkstatt öffnen: Geschichtsschreibung in Blogs und Sozialen Medien, in: Haber, Peter / Pfanzelter, Eva (Hg.), Historyblogosphere. Bloggen in den Geschichtswissenschaften, München (Oldenbourg) 2013, S. 51-60, http://www.degruyter.com/view/books/9783486755732/9783486755732.51/9783486755732.51.xml.

Scheloske, Marc: Wege aus der Nische: Was man von erfolgreichen Wissenschaftsblogs lernen kann. Anmerkungen zur Tagung »Weblogs in den Geisteswissenschaften«, in: Wissenswerkstatt, 13.3.2012, <http://www.wissenswerkstatt.net/2012/03/13/wege-aus-der-nische-was-man-von-erfolgreichen-wissenschaftsblogs-lernen-kann/>.

Scherz, Sabine: Warum sollte ich als Wissenschaftler/in bloggen? In: Redaktionsblog, 21.5.2013, http://redaktionsblog.hypotheses.org/1209.

Scherz, Sabine: Wie finde ich Themen für mein Wissenschaftsblog? In: Redaktionsblog, 28.5.2013, http://redaktionsblog.hypotheses.org/1217.

Scherz, Sabine: Texte für das Wissenschaftsblog schreiben, wie? In: Redaktionsblog, 5.6.2013, http://redaktionsblog.hypotheses.org/1220.

Smith, Kevin:The unexpected reader, Blogbeitrag 15.11.2011, in: Blog: Scholarly Communication @ Dukes, [blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/]



Handbuch CoScience/Aspekte der Kommunikation mit Twitter

Kontributoren: Ina Blümel, Marco Tullney

Hintergrund

Screenshot eines Tweets von der Website twitter.com

Nentwich et al. 2009[162] charakterisieren Twitter als Medium der informellen Wissenschaftskommunikation. Dem gegenüber steht das 'formale' Publizieren, worunter in diesem Sinne das Veröffentlichen von neuen, eigenen Forschungsergebnissen in traditionellen Medien (wie z.B. Journals, Conference Proceedings) insbesondere unter den Bedingungen wissenschaftlicher Qualitätskontrolle wie z.B. Peer Review verstanden wird. Merkmale einer traditionellen Wissenschaftspublikation sind in dieser Definition die Abgeschlossenheit eines neuen Ergebnisses, welches in der Publikation von den Autoren in den aktuellen Stand der Forschung eingeordnet wird.

Soziale Medien wie der Microblogging-Dienst Twitter können hier eine Lücke füllen: So ersetzen sie traditionelles Publizieren in der Regel nicht, eröffnen den RezipientInnen von Forschungsergebnissen jedoch eine neuartige Möglichkeit, 'zwischen' den 'eigentlichen' Publikationen Einblick zu geben bzw. zu nehmen in die Rezeption, die Gedankengänge ('Mindcasting', siehe weiter unten) und die Kommunikation von Wissenschaftsautorinnen und Wissenschaftsautoren mit ihren Peers und der interessierten Öffentlichkeit. In dieser Form der informellen Kommunikation können Ideen und Thesen zu Veröffentlichungen entstehen, vorab diskutiert oder 'ausprobiert' werden

Daher kann auch aus Sicht der Forschenden selbst das Sichtbarmachen eines Teils ihrer informellen Kommunikation, die bisher nicht-öffentlich beispielsweise in Flurgesprächen oder E-Mails stattgefunden hat, Vorteile haben. Vergleicht man die Präsentation eines Forschenden in Verlagswerbung oder Hochschulmarketing mit dessen eigener Social-Media-Präsenz z.B. bei Twitter fällt zunächst das Authentizitäts-Plus ins Auge. Twitter erweckt den Eindruck, 'näher dran' zu sein und - zumindest grundsätzlich - direkt mit dem Forschenden interagieren zu können. Aber bei vielen Forschenden spielt der Kontakt zum engeren Kreis der eigenen Peers (oder auch potenzieller Peers) eine noch größere Rolle als dieser 'Werbeeffekt', wenn man Nentwich 2009 folgt.

Twitter ist für Forschende jedoch noch mehr als ein Distributionskanal und ein kostenloses PR-Mittel mit großer Reichweite: Der Social-Media-Dienst eignet sich hervorragend für die Vernetzung mit anderen Wissenschaftlerinnen und Wissenschaftlern, um zu einem bestimmten Thema auf dem Laufenden zu bleiben. Twitter kann darüber hinaus in der Lehre eingesetzt werden.[163] Für virtuelle Forscher- oder Projektteams kann Twitter die Funktion eines "sozialen Schmiermittels"[164] übernehmen. Über historische Twitteraccounts werden Ereignisse aus der Geschichte nacherzählt[165]. Dem kreativen Umgang mit dem Micro-Blogging-Diensten Wissenschaft und Forschung sind letztlich kaum Grenzen gesetzt.

Die folgenden zehn Aspekte der Wissenschaftskommunikation mit Twitter richten sich in erster Linie an Einzelpersonen, die mit dem Twittern beginnen möchten. Strategien für Accounts wissenschaftlicher Einrichtungen werden hier nicht oder nur am Rande berührt.

Der Einstieg: Anmeldung, Konto errichten, der erste Tweet

Grundsätzlich ist es möglich, Tweets auf der Startsuchseite von Twitter auch ohne eigene Anmeldung zu lesen. Schon in dieser Grundfunktion kann man nach Nutzeraccounts oder nach den durch ein Rautezeichen eingeleiteten 'Hashtags' suchen, die als Schlagworte dienen und verlinkt sind. Sobald man jedoch selbst Tweets senden und bestimmten Accounts regelmäßig folgen möchte, ist eine Anmeldung bei Twitter erforderlich. Diese kann mit wenigen Klicks erfolgen. Zu überlegen ist vorab ein Benutzername, der durch das @-Zeichen eingeleitet wird und nicht dem tatsächlichen Namen entsprechen muss. Auch eine anonyme Anmeldung ist bei Twitter problemlos möglich. Die Frage sollte unter dem Gesichtspunkt betrachtet werden, ob man über diesen Twitteraccount gefunden werden, dh. sich aktiv vernetzen möchte oder nicht. Im persönlichen Twitterprofil sind außerdem ein Foto, eine Ortstangabe, eine URL sowie eine Kurzbeschreibung eintragbar, aber keine Pflicht.

Wenn das Profil eingerichtet ist, kann man über das eigene E-Mail-Adressbuch nach bekannten Personen suchen, die ebenfalls bei Twitter sind. Den Personen oder Einrichtungen, die für einen interessant sind, kann man per Klick folgen, so dass man zukünftig die Neuigkeiten in der eigenen Timeline lesen kann. In diesem Fall wird man selbst zum 'Follower'.

Den ersten eigenen Tweet zu verfassen, kann für manche schwierig sein. Was soll ich überhaupt schreiben? Ist das relevant? Blamiere ich mich damit? Natürlich ist zu bedenken, dass es sich bei jedem Tweet um eine Publikation handelt, auch wenn diese wie hier nur 140 Zeichen haben kann. Doch sollte man die Hürde nicht allzu hoch hängen. Ein Tweet ist immerhin nur ein Tweet, wenn man dafür zehn Minuten überlegen muss, dann sollte man sich eine andere Strategie zulegen. Ausprobieren, heisst hier die Devise und vor allem auch mitlesen und sehen, was andere Wissenschaftler/innen twittern und in welchem Ton dies geschieht. Irgendwann findet man dann den eigenen Stil.

Beim ersten Tweet haben sich übrigens die meisten nicht mit Ruhm bekleckert: Zumeist ist es ein "tweet", ein "dies ist mein erster Tweet" oder "ich bin jetzt auch auf Twitter"[166]. Also nur Mut!

Twitter zur Distribution und zur Vernetzung: Tweets verfassen

Natürlich kann man in 140-Zeichen keine tiefgehende Diskussionen führen. Jedoch kann man in Tweets mit wenigen Worten auf die eigene aktuelle Lektüre, eigene Veröffentlichungen, empfehlenswerte Neuerscheinungen, Tagungen, Ausstellungen, Vorträge oder weitere Neuigkeiten aus dem eigenen Forschungsfeld hinweisen und dazu einen Link verschicken, der auf eine Website oder ein Blog mit weiteren Informationen hinweist.

Wie bei Blogs kann man auch bei Twitter persönlich werden und "ich“ schreiben. Generell eignen sich Tweets, die eine eigene Meinung dezidiert zum Ausdruck bringen, eher für einen Austausch. "Wie viel Privates man über Twitter mitteilen möchte, ist eine Stilfrage und bleibt jedem selbst überlassen. Wer bei anderen keine 'Guten-Morgen-Tweets' lesen will, wird auch selbst nicht posten, was es gerade zum Mittagessen gibt."[167]

Twitter eignet sich darüber hinaus hervorragend, um auf eigene Artikel aufmerksam zu machen: Als Beispiel sei hier auf die „Selbstversuche“ von Melissa Terras, Forscherin am University College in London, hingewiesen, über die sie in ihrem Blog mehrfach berichtet hat. Der jüngste Beitrag vom 3. April 2012 unter dem Titel „Is blogging and tweeting about research papers worth it? The Verdict“[168] zeigt noch mal eindrücklich, wie sie Twitter nutzt, um auf ihre Forschung aufmerksam zu machen. Dazu hat sie ihre Open Access zugänglichen Artikel per Twitter beworben, jedoch mit einer Ausnahme. Die getweeteten Artikel weisen zwischen 142 und 297 Downloads auf, der nichtbeworbene Artikel kam auf nur 12 Downloads, obwohl er im Netz an gleicher Stelle veröffentlicht ist. Sicherlich muss man erst Teil einer Community sein und sich eine Folgschaft bei Twitter aufbauen, doch sind die Möglichkeiten zur Verbreitung von Informationen dann sehr groß.

Darüber hinaus gibt es 'Gespräche' auf Twitter. Dabei wird man mit dem eigenen Nutzernamen im Tweet einer anderen Person erwähnt. Dies ist bei etwa 21 bis 30% allet Tweets der Fall.[169] Über Erwähnungen kann man unkompliziert mit Personen Kontakt aufnehmen, auch wenn diese einem nicht folgen. Zu Bedenken ist dabei immer, dass diese Gespräche öffentlich sind.

Gezielt fachlich relevanten Benutzern folgen: Die eigene Timeline als 'kollaborativen Filter' einrichten

Das Zentrum von Twitter ist die eigene 'Timeline', die Liste der Tweets aller Twitter-Account, denen man folgt. Unabhängig davon, ob man selbst aktiv twittert, eignet sich Twitter dazu, es passiv als 'kollaborativen Filter' einzusetzen. Durch ein gelegentliches Überfliegen liefert Ihnen die Timeline Hinweise und kurze Einordnungen von neuen Fachveröffentlichungen, Hinweise auf relevante Veranstaltungen (siehe dazu auch weiter unten das Begleiten von Konferenzen durch Twitter) oder auch Hinweise auf fachlich relevante Artikel in Blogs oder der Tagespresse.

Um einen solchen Filter aufzubauen, müssen Sie allerdings zunächst Twitter-Benutzer finden, deren Tweets für Sie (mehr oder weniger häufig) inhaltlich relevant sind. Seien Sie dabei 'egoistisch'! Twitter funktioniert anders als andere soziale Medien wie Facebook, in denen meistens wechselseitige "Freundschaften" mit Freunden oder Kollegen aus dem "wirklichen Leben" eingegangen werden. Bei Twitter steht das 'einseitige', asynchrone Folgen im Vordergrund - das Folgen geschieht also per Klick und braucht von der Gegenseite nicht bestätigt zu werden. 'Entfolgen' Sie Accounts, wenn Sie deren Tweets nicht (mehr) interessieren.

Zum Einstieg in die Suche nach relevanten Benutzern bzw. Accounts auf Twitter empfiehlt es sich, sich mit der Suchfunktion von Twitter vertraut zu machen. Mittels einer Suche in den Benutzerprofilen ('Personen') können Sie gezielt nach Fachkolleginnen und -kollegen oder z.B. nach den Namen bestimmter Hochschulen oder Unternehmen suchen. Twitter ist im deutschsprachigen Raum noch bei weitem nicht so populär wie andere soziale Medien - und das gilt, im kleineren Maßstab, auch für den Wissenschafts-Kosmos. Grundsätzlich empfiehlt es sich daher, in den eigenen kollaborativen Filter z.B. auch englischsprachige Benutzer einzuschließen. Beatrice Lugger hat eine Übersicht zusammengestellt über die "Deutsche Wissenschaft bei Twitter"[170]. Speziell für Historikerinnen und Historiker bietet der Twitter-Leitfaden von Mareike König Hinweise, welchen Accounts man folgen kann.[171]

Eine weitere Möglichkeit, um relevante Twitter-Accounts zu identifizieren, ist die Suche nach URLs. Wenn Sie auf einen Artikel gestoßen sind, der für Sie von großem Interesse, aber nicht besonders populär ist (ein Artikel bei "Spiegel Online" würde sich dafür zum Beispiel wenig eignen), geben Sie die URL oder den DOI des Artikels in die Twitter-Suche ein. Dabei werden Sie auf andere Twitter-Benutzer stoßen, die auf diesen Artikel hingewiesen haben - dies sind sehr geeignete Bausteine für den Aufbau ihres eigenen kollaborativen Filters. Wenn Sie einem solchen Benutzer X folgen, werden Sie fast zwangsläufig auf weitere für Sie relevante Benutzer Y und Z in dessen Netzwerk stoßen. Dies passiert z.B., wenn ein Tweet von Y vom Benutzer X retweetet wird. Auch dieser Tweet erscheint dann in Ihrer Timeline. Entwickeln Sie ein Gespür für eventuell "folgenswerte" neue Twitter-Benutzer - überfliegen Sie das Benutzerprofil, werfen Sie einen Blick auf die kurze Twitter-Biographie sowie darauf wie viele Tweets der Benutzer veröffentlicht hat, und wie vielen anderen Twitterern er folgt.

Weitere eventuell nützliche Tools zur Recherche in Twitter neben der Twitter-eigenen Suche sind Topsy[172] sowie Kurrently[173]. Puschmann und Burgess 2013[174] betonen, wie beschränkt der systematische Zugang zu Twitter-Daten für Recherche- und Analysezwecke ist. Dem ist bis heute leider wenig hinzuzufügen.

Tweets und Links zum späteren Lesen und Durchsuchen speichern

Wer sich einen kollaborativen Filter aufgebaut hat, gelegentlich seine Timeline überfliegt und dabei Interessantes entdeckt, wird diese relevante Information behalten wollen - zum Beispiel, um es später in Ruhe zu lesen. Dies ist nicht so trivial, wie es klingt, denn schließlich ist kaum ein anderes Online-Medium so konsequent auf das Teilen von Informationen "in Echtzeit" ausgerichtet wie Twitter.

Diese Flüchtigkeit ist aus Sicht des persönlichen Informationsmanagements Segen und Fluch zugleich: Einerseits erlaubt sie uns, anderen Benutzern gleichsam 'über die Schulter zu schauen', und auf diese Weise zum Beispiel an einer flüchtigen, aber eben auch für uns fachlich relevanten Entdeckung teilzuhaben. Andererseits ist es für einen Twitter-Benutzer, der hunderten anderer Benutzerinnen und Benutzer folgt, kaum möglich, durch Zurück-Scrollen in der eigenen Timeline einen Tweet wiederzufinden, der auch nur älter als einige Tage oder Wochen ist, ganz abgesehen davon, dass Tweets nach zwei bis drei Tagen zumeist gar nicht mehr angezeigt werden.

Wie ist der oben beschriebene Widerspruch aufzulösen? Natürlich ist es möglich, besonders interessante Fundstücke aus Twitter per Zwischenablage in ein anderes digitales Medium 'umzukopieren' - doch das läuft der mühelosen Handhabung dieses Mediums zuwider. Idealerweise möchte man durch bloßes Überfliegen der Timeline einige vielversprechende Tweets identifizieren, und genau diese Tweets (oder längeren Artikel hinter den getwitterten Links oder DOIs) später leicht wiederfinden.

Twitter selbst stellt hierfür die Funktionen "Favorisieren" ("Fav") und "Retweeten" ("RT") zur Verfügung. Die eigenen Favs und RTs können im Normalfall von allen anderen Twitter-Benutzern gesehen werden. Insbesondere RTs tauchen in der Timeline der eigenen Follower auf und werden insofern sogar sehr wahrscheinlich wahrgenommen. Dennoch gibt es keine umfassende, von allen Twitter-Benutzern geteilte Konvention, die besagt, was ein Fav oder ein RT eigentlich bedeuten. Teilweise werden RTs in der Wissenschaft als "Teil der Zitationskultur"[175] gesehen. Eine Studie aus dem Jahr 2011 stellte fest, dass Wissenschaftlerinnen und Wissenschaftler häufiger retweeten als andere Nutzerkreise.[176] Andere Twitter-Benutzerinnen und Benutzer weisen in der Kurz-Biographie in ihrem Benutzerprofil explizit darauf hin, daß eine RT keine Unterstützung des geteilten Inhalts bedeutet. Klar ist jedoch, daß dieses beiden Funktionen, wie hier vorgeschlagen, auch für das perönliche Informationsmanagement genutzt werden können. Der interessante Tweet, der älter als einige Tage oder Wochen ist, läßt sich in der Liste der eigenen Tweets oder Favoriten schon deutlich leichter wiederfinden.

Eine noch bessere Methode, um fremde Tweets dauerhaft zu speichern, ist die Verknüpfung des Twitteraccounts mit dem Sozialen-Bookmarkig-Dienst Diigo. So ist es möglich, die favorisierten Tweets automatisch in der eigenen Diigo-Library zu speichern.

Seit Anfang 2013 bietet Twitter die Möglichkeit ein, die eigenen Tweets zu speichern. Wie man auf sein eigenes Twitterarchiv zugreift wird in einem Tutorial erklärt.[177] Daneben gibt es weitere Dienste, die das Speichern der eigenen Tweets ermöglichen, so z.B. All my Tweets[178], über den die letzten 3.200 Tweets eines Kontos aufgerufen werden können.

Relevante Funde im Netz teilen und kommentieren: 'Mindcasting'

Keith McArthur führte 2009[179] die seitdem häufig zitierte Unterscheidung zwischen Mindcasting und Lifecasting in sozialen Medien wie Twitter ein. McArthur zufolge wird sozialen Medien oft - und vorschnell - unterstellt, man könne dort nur lesen, was jemand anderes zum Frühstück gegessen hat ('Lifecasting'). Der Großteil des Contents in Sozialen Medien mag seiner Meinung nach damit zwar zutreffend charakterisiert sein, doch gebe es daneben auch Twitter-Nutzer, die beispielsweise ihre Lektüre oder ihre persönliche Ideenfindung in ihren Tweets öffentlich teilen ('Mindcasting').

Als interessanter 'Mindcaster' zu einem bestimmten Thema zu gelten, kann für Forschende heute ein lohnendes Ziel sein. Partizipation und Einfluss auf den fachlichen informellen Austausch im Netz können schon für sich genommen befriedigend sein. Doch die Rolle, die man beim informellen Austausch im Netz spielt, ist heute schon längst nicht mehr isoliert zu betrachten von den sonstigen Aktivitäten eines Forschende. Eine Präsenz in Twitter und anderen sozialen Medien erleichtert zumindest den Kontakt zu anderen 'digitalen Pionieren' im eigenen Fach und kann zum Anknüpfungspunkt gemeinsamer Aktivitäten werden.

Konferenzen und Tagungen via Twitter verfolgen und analysieren

Mit der zunehmenden Zahl an wissenschaftlichen Twitter-Accounts hat auch die Anzahl der Tagungen zugenommen, bei denen Veranstalter und Teilnehmer/innen twittern. Dazu wird zumeist von den Veranstaltern vorab ein hashtag für die Veranstaltung festgelegt. Diesem hashtag kann man folgen, womit man zum einen alle Tweets über diese Tagung mitlesen und zum anderen alle Accounts sehen kann, die diesen hashtag verwenden.

Twitter ermöglicht zunächst, dass die Vortragsinhalte quasi in Echtzeit verifiziert werden und zusätzliche Hinweise sowie Links zur Nachvollziehbarkeit geliefert werden können. Bei Twitter wird auf diese Weise eine weiterführende Diskussionen geführt, die z. T. weit über die Vortragsinhalte hinausgehen bzw. diese ergänzen: Tagungstweets erzeugen eine "zweite Diskussionsebene, die allen Teilnehmer/innen vor Ort über einge sogenannte Twitterwall zugänglich gemacht werden können"[180].

Damit hört das Publikum vor Ort nicht nur passiv einem Vortragenden zu, sondern gibt das Gehörte direkt weiter, kommentiert es oder reichert es mit weiterführenden Hinweisen an. Lange bevor ein Tagungsbericht erscheint, sind Tagungstweets damit ein "micro-gebloggter und mit Fotos und Links angereicherter Tagungsbericht, der live und vielstimmig in die interessierte Fachöffentlichkeit gezwitschert wird"[20].

Darüber hinaus können Nicht-Anwesende, die dem Twitterstream unter dem vereinbarten Hashtag folgen, per Tweet Fragen an die Vortragenden stellen und damit aktiv in den Verlauf der Tagung eingreifen.

.

  • Beispiel der Begleitung der OER-Konferenz von Wikimedia, Tweet-Archiv von Christian Hauschke
  • Wer hat getwittert, warum funktioniert das bei dieser Community, was war der gefühlte Beitrag von Twitter zur Kommunikation auf dieser Konferenz insgesamt?
  • Auto-Tweeten: Vortragen + gleichzeitiges Tweeten: keynotetweet für Apple und AutoTweet, wenn man Powerpoint unter Windows verwendet. Anleitung dazu: http://thenextweb.com/lifehacks/2011/04/22/how-to-auto-tweet-during-your-keynote/
  • Twitter für Hinweise auf weitere Diskussionen und Dokumentation bspw. in Etherpad
  • Die virtuelle Begleitung traditioneller Formate hat außerdem dokumentatorischen / archivarischen Charakter:
  • zunächst natürlich numerisch:
    • Themen
    • Aktivität der Nutzer
    • können rel. leicht abgelesen und ausgewertet werden, z.B. mit Tags v5.[181]
  • außerdem auch inhaltlich:
    • interessante Vorträge = viele Tweets und Diskussionen
  • Einzelne Tweets dienen ferner als Incentive oder Quellenmaterial für Nachbesprechungen der Konferenz (z.B. in Blogs, s.o.), v.a. wenn auf die virulenten Themen eingegangen wird, die aufgrund des bloßen Konferenzprogramms nicht umbedingt ersichtlich sind.
  • Der Einsatz paralleler virtueller Formate variiert sehr stark, je nachdem mit welcher Community (Fachbereich, Publikum) man es zu tun hat. Ist das Konferenz-parallele Tweeten erst einmal im Gange, kann es eine gewisse Eigendynamik entwickeln. So zieht die Anwesenheit von Viel-Tweetern zieht andere nach.
  • Abschließend Auswertung der Tweets, um Netzwerke abzubilden

Tweets als Form der Wissenschaftskommunikation

Die genannten Einsatzszenarien machen deutlich, dass die Kommunikation per Twitter Wissenschaftskommunikation ist oder sein kann. Über Twitter kann eine horizontale, kontinuierliche, direkte, ortsunabhängige und laufende informelle Kommunikation zwischen einzelnen Forschenden und wissenschaftlichen Einrichtungen erfolgen. Twitter ergänzt damit Kommunikationsformen und -orte, wie Tagungen, Aufsätze, Blogbeiträge etc.

  • Twitter-interne Referenzen sind klar. Aber es ist auch möglich, Tweets zu zitieren; wenn der Tweet selbst in einem, wissenschaftlichen Text Gegenstand ist, sollte er natürlich auch korrekt aufgeführt werden. … Abdeckung in Zitationsrichtlinien… Das Tool Tweet to bibTeX verwandelt den Link zu einem Tweet in bibTeX-Code.

Fragen stellen, Ideen testen und Kooperationen initiieren

Twitter ist ein sehr gutes Medium, um Fragen zu stellen, auch wissenschaftlicher Art. Diese Fragen werden üblicherweise mit dem hashtag #followerpower versehen. Man richtet die Fragen damit zunächst an die eigenen Follower, die diese wiederum retweeten können, so dass sie eine große Verbreitung erfahren und die Chancen auf eine Antwort steigen. Über diese Fragen und Antworten kann man auch neue Kontakte knüpfen. Im wissenschaftlichen Bereich wird beispielsweise gefragt, ob es ein bestimmtes Dokument online gibt oder jemand darauf oder auf eine Übersetzung Zugriff hat. Aber auch inhaltliche Fragen oder Fragen nach einer bestimmten Software, nach Tipps und Trick in technischen Belangen sind üblich. Da es sich immer um ein Geben und Nehmen handelt, sollte man auch selbst Fragen beantworten sowie Fragen anderer retweeten.

Nach ähnlichem Muster können bei Twitter Ideen ausprobiert oder Kooperationen initiiert werden. In der Regel reagiert die Twitter-Community sehr offen und retweet-freundlich auf diese Art von Anfragen. So können die eigenen Follower nach ihrer Meinung zu einer bestimmten Idee befragt oder die Mitarbeit an einem Projekt angeboten werden. Die Community ist zumeist sehr hilfsbereit und Tweets mit einem Fragezeichen werden entsprechend weitergereicht.

Die Aktivitäten auf Twitter evaluieren

Die Einschätzung, ob das eigene Tun auf Twitter erfolgreich ist oder nicht, hängt in erster Linie von den eigenen Zielen ab. Wer Twitter ausschließlich als Monitoring-Tool verwendet, um auf dem Laufenden zu bleiben, dem kann die Entwicklung der eigenen Follower-Zahlen egal sein. Wem es in erster Linie darauf ankommt, Twitter als Werkzeug für die Verbreitung von Inhalten und als Vernetzungswerkzeug zu verwenden, der wird ein Auge auf die Followerzahlen, auf Retweets und Favoriten haben. Für die statistische Entwickung und für die Messung der Reichweite des eigenen Tuns gibt es Dienste wie beispielsweise Twittercounter, Twazzup, oder Tweetreach um zu erfassen, wie viele Accounts ein bestimmter Tweet erreicht hat. Diese Statistiken stellen aber immer nur Annäherungswerte da und bei der Bewertung des eigenen Engagements in den sozialen Medien ist alles immer eine "Frage der Interpretation"[131]. Weitere wichtige Hinweise finden sich im Beitrag von Wenke Bönisch "Social Media Monitoring für Wissenschatler/innen.[182]


Einführungen zu Twitter in der Wissenschaft:

König 2012: Mareike König, Twitter in der Wissenschaft: Ein Leitfaden für Historiker/innen, in: Digital Humanities am DHIP, 21.08.2012 http://dhdhi.hypotheses.org/1072.

Social Networking for Scientists: The Wiki, http://socialnetworkingforscientists.wikispaces.com/Twitter.

Nazlin: Twitter for researchers, in: Newsam News, 23.09.2011, http://newsamnews.ioe.ac.uk/?p=1864.

Mollet, Amy, Moran, Danielle, Dunleavy, Patrick: Using Twitter in university research, teaching and impact activities. A guide for academics and researchers, LSE Public Policy Group 2011, http://blogs.lse.ac.uk/impactofsocialsciences/files/2011/11/Published-Twitter_Guide_Sept_2011.pdf.


Handbuch CoScience/Soziale Netzwerke für Forschende

Autoren: Isabella Peters, Christian Heise

Soziale Netzwerke für Forschende: Eine Einführung

Soziale Netzwerke sind für viele Wissenschaftlerinnen und Wissenschaftler schon lange kein Neuland mehr und haben längst Auswirkungen auf die informelle Kommunikation mit Peers und anderen Stakeholdern [183]. Sie können eine sehr lohnende und informative Ressource oder einen Verbreitungskanal für die wissenschaftliche Arbeit darstellen, wenn man weiß, sie richtig zu nutzen. Die Einsatzbereiche von Sozialen Medien in der Wissenschaft sind vielfältig [184]. Im wissenschaftlichen Alltag eignen sie sich unter anderem für:

  1. interne und externe wissenschaftliche Kommunikation,
  2. sowie für Wissenschaftsmarketing und PR,
  3. für thematisches Monitoring, um auf dem Laufenden zu bleiben,
  4. sowie das Einholen von Feedback für die eigene wissenschaftlichen Arbeit,
  5. konkrete Informations- bzw. Personensuche,
  6. direkte Vernetzung mit Fachkollegen/innen,
  7. die universitäre Lehre als unterstützendes Kommunikationsmittel,
  8. kollaboratives Arbeiten,
  9. die Unterstützung der Kommunikation auf wissenschaftlichen Tagungen,
  10. als eigener wissenschaftlicher Untersuchungsgegenstand.

In dem folgenden Beitrag wollen wir einen Überblick über die Sozialen Netzwerke für Wissenschaftlerinnen und Wissenschaftler geben, deren Stärken und Schwächen evaluieren und Empfehlungen zur Nutzung für die wissenschaftliche Arbeit aussprechen.

Nicht-akademische Soziale Netzwerke

Die größten Sozialen Netzwerke haben keine klare Zielgruppe. Dazu gehören: Facebook, Twitter und Google+. Seit Jahren tummeln sich dort auch Wissenschaftlerinnen und Wissenschaftler - anfangs meist privat, doch mittlerweile auch immer stärker mit beruflichen Interessen [185]. Im folgenden Überblick wollen wir nicht-akademische Netzwerke vorstellen und ihre Vor- und Nachteile für die Kommunikation mit anderen Forschenden und weiteren Zielguppen herausarbeiten.

Facebook zählte Ende 2013 nach inoffiziellen Statistiken in Deutschland ca. 25 Millionen monatliche Nutzerinnen und Nutzer, von denen 19 Millionen täglich aktiv sind [186]. Es ist mit Abstand das größte Soziale Netzwerk in Deutschland. So ist es nicht verwunderlich, dass auf Facebook auch die meisten Wissenschaftlerinnen und Wissenschaftler zu finden sind [187]. Die Vorteile von Facebook liegen zum einen in seiner großen Verbreitung im Social Web [188] und in der Möglichkeit, Gruppen [189] und Seiten für Institutionen, Diskussionen oder Themen [190] zu erstellen, sowie in der einfachen Darstellung von Audio- und visuellen Medien. Im Gegensatz zu Twitter, bei dem Beiträge nur maximal 140 Zeichen haben dürfen, ist es bei Facebook auch möglich, längere Beiträge zu veröffentlichen. Als Nachteile von Facebook müssen die Bedenken bezüglich der Privatsphäre genannt werden [191].

Twitter stellt ebenfalls ein beliebtes Soziales Netzwerk für Forschende dar [192] [193]. Die Vorteile von Twitter liegen in dem geringen Zeitinvestment, den kurzen Beiträgen und der Möglichkeit, schnell an Konversationen teilzunehmen. Hashtags ermöglichen es Wissenschaftlerinnen und Wissenschaftlern, Tweets thematisch zu gruppieren und zielgerichtetet in die Diskussion zu bestimmten Themen oder Konferenzen einzusteigen [194]. Darüber hinaus stellt Twitter eine effektive Möglichkeit dar, Hinweise zu publizierten Texten zu verbreiten. Demgegenüber gehen Beiträge auf Twitter recht schnell unter und die Halbwertzeit von Informationen ist eher gering [195]. Es kann außerdem schwierig sein, wissenschaftliche Twitter-Nutzende zu identifizieren [196]. Es dauert mitunter eine ganze Weile, bevor man eine große Followerschaft aufgebaut hat und positive Skaleneffekte eintreten, sodass mit geringerem Aufwand alle Vorteile von Twitter genutzt und erfreuliche Ergebnisse erzielt werden können. Auch wenn es keine aktuellen Nutzerzahlen gibt[197], ist Twitter erfahrungsgemäß im deutschsprachigen Raum bisher noch immer verhältnismäßig wenig verbreitet.

LinkedIn ist, ähnlich wie Xing, ein Netzwerk, das die Menschen in Rahmen von Arbeitsbeziehungen verbinden soll. Obwohl das Karriere-Netzwerk die Möglichkeit bietet, Papers, Wettbewerbe, Präsentationen und Patente anzugeben, spielt es in der deutschsprachigen akademischen Welt für den informellen Austausch kaum eine Rolle [198]. Auch Google+ ist bisher unter dem wissenschaftlichen Kollegium nicht besonders weit verbreitet [199]. Als Vorteil des Netzwerks des Suchgiganten kann aber dennoch die Integration des Netzwerks in die anderen Google-Dienste wie GoogleDocs, GoogleHangout oder GoogleSpreadsheet genannt werden. Diese ermöglicht eine nahezu nahtlose Nutzung aller Funktionen von Google in einem Sozialen Netzwerk. Wenn man die Google-Dienste kollaborativ im Rahmen wissenschaftlicher Tätigkeiten nutzen will, kommt man an Google+ nicht vorbei [200]. Demgegenüber stehen ebenfalls die Kritik an Verstößen gegen die Privatsphäre bzw. den Datenschutz, die teilweise unklare Usability und die geringe Nutzerzahl sowie -aktivität innerhalb der Plattform.

In Tabelle 1 werden die Vorteile und Nachteile von einigen der genannten nicht-akademischen Sozialen Netzwerken dargestellt.

Tabelle 1: Vergleich von Social Media Online Tools (Bik & Goldstein, 2013)

Akademische Soziale Netzwerke

Während Facebook, Twitter und Co. nicht nur Forschende als Zielgruppe haben, gibt es nunmehr auch eine Vielfalt an Sozialen Netzwerken auf dem Markt, die sich speziell an Wissenschaftlerinnen und Wissenschaftler richtet: Mendeley, ResearchGate oder Academia.edu sind nur einige von ihnen. Oft haben sie sich zum Ziel gesetzt, die Forschung bzw. die Art und Weise, wie Forschung betrieben wird, zu revolutionieren [201]. Um gegenüber Facebook bestehen zu können, müssen sie eine Lücke füllen oder einen Mehrwert im wissenschaftlichen Arbeits- oder Kommunikationsprozess bieten, um Forschende zur Nutzung zu motivieren.

Art der Nutzung

Vorteilhaft für akademische Soziale Netzwerke ist, dass viele Forschende klar zwischen einer privaten und einer beruflichen Nutzung von Sozialen Netzwerken trennen können [202] [203] . Letztlich ziehen Art und Funktionalitäten des Sozialen Netzwerks auch eine bestimmte Zielgruppe an, die entsprechend bedient werden will bzw. bestimmte Verhaltensweisen erforderlich macht. Es hat sich zudem gezeigt, dass die Nutzung von Sozialen Netzwerken stark disziplin-abhängig ist [204] [205]. Die Art der Nutzung (privat oder beruflich) hat mit Sicherheit den größten Einfluss auf die veröffentlichten Inhalte (z. B. Teilen von lustigen YouTube-Videos im Freundeskreis auf Facebook vs. Kommentierung von wissenschaftlichen Publikationen auf ResearchGate).

Gemeinsam ist allen Sozialen Netzwerken jedoch - sowohl bei überwiegend privater als auch bei meist akademischer Nutzung - dass sie es Nutzerinnen und Nutzern ermöglichen, eine Identität über ein Nutzerprofil auf einer Online-Plattform aufzubauen und sich darüber mit anderen Nutzenden der Plattform zu vernetzen. Die Vernetzung zwischen den Forschenden kann einseitig, Follower-Followee-Beziehung wie bei ResearchGate, als auch zweiseitig, Freunde-Beziehung wie bei Mendeley, erfolgen. Zudem gibt es für die Nutzerinnen und Nutzer oftmals die Möglichkeit, sich nicht nur bilateral zu vernetzen, sondern auch Gruppen zu bilden und damit den Austausch zwischen den Mitgliedern der Plattform zu fördern. Meist wird das Profil nicht nur mit persönlichen Angaben zum Werdegang und (wissenschaftlichen) Interessen gefüllt, sondern auch mit selbst erzeugten Inhalten, die einerseits originär auf der Plattform erstellt (z. B. Kommentare oder Statusmeldungen) und andererseits mit Hilfe eines anderen Tools erzeugt und dann hochgeladen werden können (z. B. Pre-Print-Versionen von wissenschaftlichen Artikeln oder Literaturverzeichnisse).

Funktionalitäten und Nutzerschaft

Zu dem Online-Profil kommt eine Vielzahl an weiteren Funktionalitäten und Mehrwerten, die die Bezeichnung „Soziales Netzwerk“ mitunter zu eng gefasst wirken lässt - sind Mendeley, ResearchGate und Academia.edu doch so viel mehr. Daher soll hier zunächst der Versuch einer Systematisierung der Funktionalitäten unternommen werden, um einen Überblick über die Unterschiede und Gemeinsamkeiten der akademischen Sozialen Netzwerke auf dem Markt zu geben. Für den Überblick wurden momentan populäre Soziale Netzwerke ausgewählt, die Wissenschaftlerinnen und Wissenschaftler zur Zielgruppe haben. Die Auswahl erhebt dabei keinen Anspruch auf Vollständigkeit. Hinsichtlich der Funktionalitäten wurden diejenigen gewählt, die von besonderer Bedeutung für Forschende und den wissenschaftlichen Arbeitsprozess sind, auch wenn das Soziale Netzwerk möglicherweise noch weitere Funktionen bietet (z. B. die Suche nach Personen). Tabelle 2 stellt die Sozialen Netzwerke und ihre Funktionalitäten in der Übersicht dar.

Tabelle 2: Übersicht Soziale Netzwerke und ihre Funktionalitäten

Grundsätzlich lassen sich drei Funktionalitätsbündel in akademischen Sozialen Netzwerken ausmachen, die jeweils einen anderen Teilbereich im wissenschaftlichen Arbeiten schwerpunktmäßig ansprechen: 1) Interagieren und austauschen, 2) Publizieren und verbreiten, und 3) Sich präsentieren. Zur ersten Gruppe gehören Maßnahmen, die die Vernetzung der Nutzerinnen und Nutzer untereinander und ihren Austausch ermöglichen. "Publizieren" subsummiert all jene Funktionen, die der Erstellung oder Veröffentlichung von wissenschaftlichen Produkten dienlich sind (z. B. Literaturverwaltung oder Weiterleitung von Texten an Verlage). Letztere Gruppe umfasst die Darstellung des wissenschaftlichen Werdegangs, eigener Fähigkeiten, Job-bezogener Aktivitäten und den Einfluss auf die wissenschaftliche Community (z. B. über Altmetrics [206]). Nicht dezidiert analysiert wurde die Suchfunktion innerhalb der Sozialen Netzwerke, die vor allem in Netzwerken mit Fokus auf "publizieren und verbreiten" die Recherche nach Veröffentlichungen und Personen erlaubt (oftmals sowohl durch aktive Suche als auch durch das systemseitige Vorschlagen).

Für die Auswahl der hier untersuchten wissenschaftlichen Netzwerke hat sich herausgestellt, dass verschiedene Produkte die jeweiligen Funktionalitätsbündel unterschiedlich stark unterstützen. "Interagieren und austauschen" ist mit ResearchGate und mit Epernicus gleich gut möglich, da sie acht von neun Funktionalitäten bieten. "Publizieren und verbreiten" funktioniert mit Mendeley (7 von 9), CiteULike (7 von 9) und ResearchGate (6 von 9) am besten. LinkedIn bietet sieben von sieben Funktionen aus der Kategorie "Sich präsentieren" und nimmt damit die Spitzenposition in diesem Bereich ein. Mit jeweils fünf von sieben Funktionen folgen ResearchGate, Academia.edu und mysciencework.com auf dem zweiten Platz.

Auch wenn sich in dieser Studie klare Sieger in jeder Kategorie zeigen, haben viele Soziale Netzwerke eine große Übereinstimmung in ihren Funktionen. So teilen ResearchGate, ScienceStage und MyNetResearch mehr als die Hälfte der hier abgefragten Funktionalitäten. Fast die Hälfte der Funktionalitäten haben ResearchGate, Mendeley, LinkedIn und CiteULike gemeinsam. Interessant ist, dass sich die gleichen Funktionen jeweils auf unterschiedliche Kategorien beziehen. ResearchGate und LinkedIn sind sich im Hinblick auf "sich präsentieren" sehr ähnlich, während CiteULike, Mendeley und ResearchGate austauschbare Funktionen in den Kategorien "interagieren und austauschen" sowie "publizieren und verbreiten" haben. In der Summe bietet ResearchGate die meisten Funktionalitäten über die drei Kategorien hinweg, gefolgt von Mendeley und LinkedIn. Vergleicht man stattdessen die Nutzerzahlen der drei Plattformen mit den meisten Funktionalitäten, schlägt LinkedIn mit ca. 300 Millionen Mitgliedern, ResearchGate (ca. 5 Millionen Mitglieder) und Mendeley (ca. 3 Millionen Mitglieder) bei weitem. Dass ein großes Funktionsspektrum nicht unbedingt die meisten Mitglieder anzieht, zeigt Academia.edu, welches zurzeit ca. 14 Millionen Nutzerinnen und Nutzer haben soll und weniger Funktionen anbietet als bspw. ResearchGate.

Neben den Unterschieden im Funktionsumfang und in den Nutzerzahlen, zeigen sich auch Differenzen in der disziplinären Herkunft der in den akademischen Sozialen Netzwerken registrierten Mitglieder. So haben ResearchGate und LinkedIn eine starke Nutzergruppe aus den Natur- und Ingenieurwissenschaften, während Forschende aus den Sozial- und Geisteswissenschaften, neben ResearchGate, wohl eher Facebook, LinkedIn und Academia.edu nutzen. Mendeley wird von beiden Gruppen gleich häufig genutzt [207].

Die Betrachtung der Funktionalitäten und der Nutzerschaft macht es schwer, eine eindeutige Nutzungsempfehlung für ein akademisches Soziales Netzwerk auszusprechen. Interessierte Forschende sollten sich viel mehr folgende Fragen stellen, um zu einer Entscheidung zu gelangen:

  • Welche Funktionalitäten sind mir wirklich wichtig und unterstützen mich während des wissenschaftlichen Arbeitsprozesses und belasten mich nicht?
  • Auf welchen Plattformen finde ich meine Community und die relevanten Forschenden, um mich auszutauschen, Erste-Hand-Information zu erhalten und Netzwerke zu bilden?

Nicht notwendigerweise muss dabei die Entscheidung auf nur ein einziges (wenn überhaupt) akademisches Netzwerk fallen. Nicht umhin kommt man aber um eine Testphase, um sich eine Meinung über die Produkte zu bilden.

Effekte der Mitgliedschaft in akademischen Sozialen Netzwerken

Den Anreiz zur Nutzung von wissenschaftlichen Sozialen Netzwerken bildet vor allem das traditionelle akademische Belohnungssystem in der Offline-Welt. Wissenschaftliche Karrieren erfordern ein gewisses Maß an Reputation, die man durch Publikationen und Zitationen erhält. Für verschiedene Szenarien (z. B. Open Access oder Bereitstellung von Forschungsdaten) hat sich gezeigt, dass sich der freie Zugang zu wissenschaftlichen Veröffentlichungen positiv auf die Zitationsrate auswirkt[208] [209][210]. Und auch für altmetrische Indikatoren (z. B. Anzahl Tweets oder Anzahl Leser) wurde dieser -zumindest moderat positive- Zusammenhang zwischen Zitationen und Social Media-Aktivität nachgewiesen [211] [212] [213]. Hier haben sich vor allem solche Tools verdient gemacht, die die Verbreitung von wissenschaftlichen Inhalten unterstützen (z. B. Twitter oder Mendeley) und den Austausch zwischen verschiedenen Öffentlichkeiten, d. h. Forschenden und anderen Stakeholdern (z. B. Wissenschaftsjournalisten), fördern. Da die kostenlose Bereitstellung von Inhalten oftmals eine Funktionalität der Sozialen Netzwerke ist (z. B. ResearchGate), werden sich viele Nutzerinnen und Nutzer von der Mitgliedschaft eine Steigerung ihrer Reputation versprechen. Auf der anderen Seite ist der Ausblick auf frei erhältliche Forschungsergebnisse sicherlich auch ein Beweggrund, ein Profil im Netzwerk zu erstellen, um so der Bezahlschranke der Verlage zu entgehen.

Wollen Forschende aktiv an der Verbreitung ihrer oder auch fremder Publikationen mitwirken, benötigen sie zwingend Nutzerprofile in Sozialen Netzwerken, da sie nur so an der Inhalterstellung auf der Plattform teilhaben können. Da die Aktivitäten (z. B. teilen, liken, kommentieren) innerhalb der Netzwerke immer an die Nutzenden gekoppelt sind, verspricht hohe Aktivität auch höhere Sichtbarkeit im Netzwerk - nicht zuletzt weil viele Plattformen die Nutzeraktivität als Indikator für die Relevanz eines Nutzers werten (z. B. ResearchGate im RG Score). Nentwich und König [214] können fünf Profil-Typen in akademischen Sozialen Netzwerken identifizieren, die die Nutzungsintensität widerspiegeln: "Me-too presence", sporadische Nutzung des Profils, "digital calling card", Erweiterung der persönlichen Homepage und seltene Nutzung , "passive networking", Profil selten zur Kontaktpflege genutzt, "active networking and communication", regelmäßige und intensive Nutzung des Profils und der Funktionalitäten des Sozialen Netzwerks, und "Cyberentrepreneurship", ständige Nutzung des Netzwerks, z. B. als Gruppenmoderator. Selbst gepflegte Nutzerprofile mit vollständigen Publikationslisten (und optimalerweise angegebenen Autorenidentifiers wie ORCID) bieten zudem den Vorteil, dass sie aktuell sind und sich Werk und Schöpfer eindeutig zuordnen lassen (obwohl dies natürlich auch für private oder institutionelle Homepages gilt, die nicht als Soziale Netzwerke gezählt werden). Eine hohe Sichtbarkeit im Online-Netzwerk wirkt sich wiederum auf die Sichtbarkeit in der Offline-Welt aus - viele Forschende wurden hier schon zu Vorträgen oder Publikationen eingeladen. Da das eigene Profil die Aktivitäten bündelt, ergibt sich dadurch die Möglichkeit, sich in einem bestimmten Bereich als Experte zu etablieren. Voraussetzung dafür ist aber natürlich, dass man sich die Zeit nimmt, aktiv an der Diskussion zu partizipieren - auch wenn dadurch die Publikationsleistung in traditionellen wissenschaftlichen Medien zurückgehen kann [215].

Empfehlungen

Empfehlung 1: Probieren und erst mal einen Überblick verschaffen

Egal ob akademisch oder nicht, Soziale Netzwerke sind eine lohnende und informative Ressource für Wissenschaftlerinnen und Wissenschaftler. Für den Beginn ist es ratsam, das für die eigene Fachdisziplin beziehungsweise in der eigenen Fachcommunity meist genutzte und funktional passende Netzwerk auszusuchen und sich mit den relevanten Gruppen oder Nutzern zu verbinden. Debatten, Etiquette und Tonalität sollten vor den ersten eigenen Aktivitäten beobachtet werden (lurking [216]). Es ist völlig legitim, Nutzern oder Gruppen nicht mehr zu folgen, wenn die gelieferten Informationen keine Relevanz mehr für einen selbst aufweisen. Der Beitritt in mehrere Soziale Netzwerke kann als völlig normal betrachtet werden.

Empfehlung 2: Über die genutzten Quellen informieren

Man sollte immer die Quellen der gesammelten oder verbreiteten Informationen überprüfen, da ein Blick auf das Nutzerprofil des Absenders der Information und die dort gespeicherten Aktivitäten erhellend sein kann. Inhalte in Sozialen Netzwerken werden im Gegensatz zur klassischen wissenschaftlichen Kommunikation selten überprüft. Die Verbreitung von falschen oder bewusst gefälschten Inhalten verstößt gegen die gute wissenschaftliche Praxis und sollte vermieden werden. Es ist diesbezüglich völlig legitim, den Autor zu kontaktieren und nach dem Ursprung der Informationen zu fragen. Wird das Soziale Netzwerk als Arbeitsmittel im Rahmen von wissenschaftlicher Tätigkeit verstanden, gelten die gleichen Grundregeln der wissenschaftlichen Sorgfalt wie außerhalb der Sozialen Netzwerke.

Empfehlung 3: Authentisch bleiben und Rückkanal nutzen

Eine aktive Beteiligung in Sozialen Netzwerken kann zu einer Steigerung der Produktivität und zu generellen Verbesserungen in der persönlichen Forschungsarbeit führen [217]. Dabei bringt es nichts, die Sozialen Netzwerke nur als neuen Einwegkanal für die Verbreitung von eigenen Informationen und Publikationen zu nutzen. Die Nutzung Sozialer Netzwerke kann nur dann effektiv und erfolgreich sein, wenn durch authentisches und ehrliches Kommunizieren, durch zeitnahe Interaktion mit anderen Nutzern und aktives Engagement auch der Rückkanal genutzt wird.

Empfehlung 4: Indikatoren für die Verbreitung und Bewertung von Publikationen be(ob)achten

Im Rahmen der Entwicklung alternativen Metriken sollte ebenfalls berücksichtigt werden, dass Indikatoren aus Sozialen Netzwerken bei der Bewertung beziehungsweise Verbreitung von Wissenschaft zunehmend eine Rolle spielen [218]. Auch wenn das kritisch zu hinterfragen bleibt [219] [220], sollte man sich bewusst mit dem Thema Verbreitung und Bewertung von wissenschaftlicher Arbeit in Sozialen Netzwerken auseinandersetzen.

Empfehlung 5: Soziale Netzwerke bewusst nutzen

Soziale Netzwerke bieten Forschenden eine gute Möglichkeit, Profilbildung zu betreiben und die öffentliche Wahrnehmung von Wissenschaft und Forschung zu steigern [221]. Dennoch sollte in den Netzwerken bewusst kommuniziert werden. In der Wissenschaft gibt es oft noch immer eine besondere Stigmatisierung der Online-Aktivitäten von Forschenden. (Über-)Aktive Nutzung der Sozialen Medien können noch immer als eine Verschwendung von Zeit und Ablenkung von der Forschung und Lehrtätigkeit gesehen werden [222]. Auch wenn diese Auffassung nicht mehr ganz zeitgemäß sein mag, sollte dieser Aspekt immer bei der Nutzung berücksichtigt werden. Abschließend sollte bei der Verwendung von kostenfreie soziale Netzwerke auch immer das Geschäftsmodell hinter der Plattform berücksichtigt werden.

Acknowledgement

Wir möchten uns bei Ermeline Jaggi für die Unterstützung bei der Analyse der Funktionalitäten der akademischen Sozialen Netzwerke bedanken.



Handbuch CoScience/Akademisches Identitätsmanagement

Autorinnen: Caroline Leiß, Tina Hohmann

Einleitung

Wer wissenschaftlich publiziert, möchte als Autor seiner Werke erkannt werden. Eine Recherche in Datenbanken oder im Internet sollte im Idealfall alle eigenen Werke auflisten und kein Werk eines anderen Autors als eigenes ausgeben. Doch so einfach es klingt – im Alltag treten bei der Identifizierung eines Autors zahlreiche Probleme auf. Die eindeutige Identifizierung von Autoren und die korrekte und vollständige Zuordnung von deren Publikationen ist ein Thema, zu dem es bisher keine Standardlösung gibt.

Die Gründe für diese Schwierigkeiten sind vielfältig:

  • Namensänderung nach Heirat: Wenn Katharina Bäcker nach ihrer Heirat als Katharina Müller publiziert, ist nicht erkennbar, dass es sich um dieselbe Person handelt.
  • Häufige Namen: P. Maier, Peter Maier, P. F. Maier, Peter Friedrich Maier – wie viele Personen stecken dahinter? Oder ist es immer dieselbe Person, nur mit anderen Namensformen? Wie identifiziert man einzelne Personen, wenn bestimmte Nachnamen von Tausenden oder Hunderttausenden von Personen getragen werden?
  • Unklarheit bei der Zuordnung von Nachname und Vorname: Wolfgang Thomas kann sowohl ein Herr Thomas als auch ein Herr Wolfgang sein, der zwischen Nach- und Vorname kein Komma gesetzt hat. Das Auseinanderhalten von Vor- und Nachname kann schwierig sein, zumal es in manchen Sprachen oder Kulturkreisen üblich ist, den Nachnamen ohne Komma vor den Vornamen zu setzen.
  • Transkriptionsprobleme: Mueller, Müller, Muller, M*ller – je nach bibliographischer Datenbank oder Suchmaschine wird das ü unterschiedlich in der Suche verarbeitet und führt zu unterschiedlichen Treffern. Dies gilt für alle Umlaute und Sonderzeichen.

Was für Autorennamen gilt, trifft ebenso für Institutionen zu. Wer bei der Literatursuche durch die zusätzliche Angabe der jeweiligen Institution, an der die gesuchte Person arbeitet, die Treffergenauigkeit zu erhöhen versucht, wird oft enttäuscht. Zahlreiche Namensvarianten für eine Einrichtung sind auch in renommierten, großen Datenbanken keine Seltenheit.

Wenn ein Autor in einer Datenbank nicht eindeutig identifiziert wird, kann das dazu führen, dass ein Teil seiner Publikationen nicht ihm selbst zugeschrieben wird. Das schadet nicht nur seinem Renommee, sondern hat auch Konsequenzen bei der Berechnung bibliometrischer Kennzahlen wie z.B. des h-Index.

Der bibliothekarische Ansatz in Deutschland, über eine Personen-Normdatei Eindeutigkeit zu schaffen[223], löst schon im Bereich der Zeitschriftenaufsätze das Problem nicht. Die Zuordnung von Publikationen zu einem Autor in den relevanten Datenbanken erfolgt oft automatisch. Wenn im Web of Science oder in Scopus Artikel aufgenommen werden, wird der Autor über einen Abgleich der Metadaten mit schon vorhandenen Einträgen ermittelt. Namensvarianten können dazu führen, dass einer Person mehrere Autorennamen zugeordnet werden. Nur eine händische Bereinigung bzw. Verweisungen können das Problem lösen. Im Zeitalter des Web 2.0 entstehen neben klassischen Veröffentlichungen in Verlagen mehr und mehr alternative Publikationsformen für unterschiedliche Medientypen, die nicht automatisch bibliographisch erfasst werden (Blogeinträge, Präsentationen, Pre- und Postskripts auf institutionellen Repositorien, Primärdatensammlungen, Bildarchive etc.).

Personal Branding

Der erste Schritt auf dem Weg zu einer eindeutigen Autorenidentität besteht darin, das eigene Personal Branding in den Blick zu nehmen[224]. Ausgangspunkt einer solchen Profilbildung kann z.B. eine Suche in Google nach dem eigenen Namen sein, wobei im Inkognito-Modus gesucht werden sollte, damit nicht aufgrund von Auswertungen bisheriger Suchanfragen eine personalisierte Sicht auf das Web angezeigt wird.

Ansatzpunkte für eine Verbesserung des Personal Branding im Internet als Forscher/in sind:

  • Welche Mailadressen tauchen im Internet auf? Im Idealfall sollte auf allen beruflich relevanten Seiten im Internet eine dienstliche Mailadresse genannt sein, in der eine Institutionszugehörigkeit erkennbar ist. Damit wird eine Identifizierung der gesuchten Person erleichtert. Falls mehrere Mailadressen auftauchen oder private Mailadressen sich mit dienstlichen vermischen, kann das die Identifizierung einer Person erschweren.
  • Welcher Name soll verbindlich sein? Wer Umlaute und Sonderzeichen im Namen hat, muss sich überlegen, ob er Inkongruenz in Kauf nimmt oder von vornherein auf eine international kompatible Schreibweise ausweicht. Ähnliches gilt für Namen in nicht-lateinischen Alphabeten, bei denen eine Transkription nötig ist. Wer bereits unter verschiedenen Namensvarianten publiziert hat, sollte an gegebener Stelle (z.B. ORD-ID, s.u.) alle Namensvarianten nennen.
  • Welche Bilder sind auf offiziellen Seiten (Webseite der Einrichtung, akademische Netzwerke) zu finden? Wer sich auf ein einziges Foto seiner Person festlegt, wird leichter wiedererkannt.
  • Welche Informationen werden in akademischen Netzwerken in Bezug auf das eigene Profil als Wissenschaftler/in vermittelt? Lebenslauf und wissenschaftliche Arbeitsschwerpunkte sollten möglichst übereinstimmen.

Wer die im Internet sichtbaren Profil-Informationen auf Kongruenz überprüft, kann Fehlerquellen reduzieren. Eine eindeutige Identifizierung ist dadurch aber nicht in jedem Fall möglich.

Autorenidentifikation

In der Wissenschaftscommunity entwickelten sich vor einigen Jahren die ersten Initiativen, eine systematische Autorenidentifikation einzuführen.[225] Inzwischen gibt es eine Reihe an teilweise vielversprechenden Ansätzen. Diese reichen von offenen, plattformübergreifenden Angeboten (z.B. ORCID) über Systeme einzelner Fachcommunities (z.B. RePEc ) bis hin zu kommerziellen und verlagseigenen Identifizierungsmöglichkeiten (z.B. Google, Thomson Reuters). Manche Registrierungssysteme sind offen für alle, die sich anmelden möchten. In anderen Systemen vergeben Institutionen oder Gremien Autoren-IDs, sobald ein wissenschaftliches Werk eingereicht wird (z.B. ArXiv Author ID oder Scopus Author ID).

ORCID

ORCID logo.png

Eine zunehmend wichtige Initiative zur Autorenidentifizierung ist ORCID - Open Researcher and Contributor ID (http://orcid.org). ORCID wurde 2012 von Akteuren aus Wissenschaft, Verlagen und weiteren Institutionen speziell für den Bereich der Wissenschaft gegründet und hat sich seither zum defacto-Standard der Autorenidentifizierung im akademischen Bereich etabliert. Mittlerweile sind über 860.000 ORCID iDs vergeben [226], und die Zahl steigt kontinuierlich an. ORCID ist offen, nicht kommerziell und plattformübergreifend.

ORCID hat zwei zentrale Angebote: Die Erstellung einer personenbezogenen ORCID iD zur Identifizierung eines Wissenschaftlers sowie Programmierschnittstellen (API) für die Einbindung der ORCID iDs.

Die ORCID iD ist eine persistente Identifizierungsnummer für eine einzelne Person. Sie besteht aus 16 Ziffern, die in vier Viererblöcken dargestellt sind (z.B. 0000-0002-2792-2625). Als Webadresse (z.B. http://orcid.org/0000-0003-0232-7085) verweist sie auf die ORCID-Seite, die weitere Daten zur betreffenden Person enthält. Die Registrierung bei ORCID ist für einzelne Personen kostenlos. Ein ORCID-Icon für Websites mit Link zur jeweils eigenen ORCID iD steht zum Download zur Verfügung.

Jeder kann sich bei ORCID registrieren. Wer eine ORCID iD hat, kann den ORCID-Account als zentrale Seite für Identitätsinformationen nutzen:

  • Hinterlegung von Namensvarianten, um beispielsweise eine Namensänderung durch Heirat nachvollziehbar zu machen
  • Hinterlegen der Adressen von Website, Blog oder Twitteraccount
  • Verknüpfung zu anderen IDs wie z.B. ResearcherID aus Web of Science oder Scopus Author ID
  • Lebenslauf
  • Verzeichnis von Publikationen, wobei diverse Metadatenschemata genutzt werden können. Unter Berücksichtigung des Urheberrechts können Links für den direkten Onlinezugriff auf Publikationen hinterlegt werden. Wer Daten nicht öffentlich zugänglich machen möchte, kann den Zugriff einschränken.

Institutionen können eine Mitgliedschaft bei ORCID erwerben und dadurch die Möglichkeit erhalten, Identifizierungsnummern zu vergeben oder ORCID iDs in ihre Workflows z.B. bei der Einreichung von Artikeln für Peer Review, bei Open Access Publikationen oder bei der Beantragung von Stipendien zu integrieren. Zahlreiche Publisher, Datenbank-Anbieter und Repositorien sind bei ORCID als Mitglieder registriert, außerdem aktuell 28 Universitäten.[227]

Die ORCID iD ist als Identifizierungsnummer bei zahlreichen Verlagen, Universitäten und wissenschaftsnahen Einrichtungen etabliert und wird in den Workflow z.B. bei der Begutachtung von Zeitschriftenartikeln integriert. Immer mehr große Datenbankanbieter entwickeln Schnittstellen ihrer Systeme zu ORCID und nutzen die von ORCID angebotenen Schnittstellen. So kann man z.B. Publikationen aus Web of Science und Scopus in den eigenen ORCID-Account importieren. In einigen akademischen Netzwerken kann die ORCID iD mittlerweile zur Autorenidentifikation mit eingetragen werden.[228]

Ein großer Vorteil von ORCID: Hier können Publikationen aller Veröffentlichungsarten erfasst werden, d.h. auch Primärdatensammlungen, Bildarchive, Tonveröffentlichungen, Blogs, Zeitungsartikel und weiteres. Damit zeichnet sich ORCID gegenüber Ansätzen aus, die nur innerhalb einer bestimmten Datenbank oder nur für bestimmte Publikationsformen anwendbar sind.

Web of Science: ResearcherID

ORCID basiert auf einem Ansatz, der bereits vorher von Thomson Reuters entwickelt worden war. Thomson Reuters sah sich in besonderer Weise mit dem Problem der Autorenidentifizierung konfrontiert, weil im Web of Science (WoS) alle Vornamen durch Initialen abgekürzt werden. Die Einführung der ResearcherID in 2008 stellt einen entscheidenden Fortschritt in der Autorenidentifizierung dar.

Als Autor kann man sich im WoS eine ResearcherID anlegen und die eigenen Werke zuweisen. WoS führt durch diesen Prozess und bietet die vermutlich dem jeweiligen Autor zugehörigen Werke aus WoS an, die man anschließend selbst der ResearcherID zuweist. Die intellektuelle Durchsicht durch den Autor garantiert die größtmögliche Fehlerfreiheit bei der Zuordnung. Researcher ID bietet außerdem die Möglichkeit, Publikations-Metadaten aus einer EndNote-Bibliothek oder über ein RIS-File hochzuladen und damit auch Publikationen zu erfassen, die nicht in WoS indiziert sind.

Berechtigt zur Erstellung einer Researcher ID sind Personen, die WoS im Rahmen einer Lizenz nutzen. Weitere Personen können über ein Antragsformular die Berechtigung erhalten.[229]

Wer eine ResearcherID hat, kann ein Icon („ID-Badge“) erzeugen und es auf seiner Website einbinden. Ein Klick auf das Icon führt direkt zum Autorenprofil und zu der Publikationsliste in WoS. Im eigenen Autorenprofil können Namensvarianten (z.B. Namen vor einer Heirat) angegeben sowie Angaben über das eigene Forschungsprofil hinterlegt werden. Metadaten können zwischen WoS und ORCID ausgetauscht werden.

Scopus: AuthorIdentifier

Der Scopus Author Identifier[230] wird vergeben, sobald ein Artikel in Scopus indiziert wird. Er basiert auf einem Algorithmus, der Autorname, Institution, Adresse, Forschungsbereich und andere Metadaten auswertet.

Die Scopus ID wird automatisch erstellt und kann - anders als die Researcher ID im Web of Science - vom jeweiligen Autor nicht unmittelbar selbst bearbeitet werden. Die Generierung der Scopus ID sowie die Zuordnung der Publikationen basiert auf Daten, in denen sich leicht Fehler einschleichen, wie beispielsweise der institutionellen Zugehörigkeit (affiliation) eines Autors. In den Hilfetexten zur Author ID verweist Scopus explizit darauf, dass z.B. Dokumente, bei denen keine affiliation genannt ist, nicht zugeordnet werden können[231]. Über ein Formular können Datenkorrekturen zu einzelnen Autoren beantragt werden[232].

Auch die Scopus AuthorID bietet den Austausch der bibliographischen Daten mit der ORCID iD an.

Wichtig aus Autorensicht: WoS und Scopus sind die bekanntesten Quellen für den zwar umstrittenen, aber weitverbreiteten bibliometrischen Indikator für Personen, den h-Index. Der h-Index berechnet sich durch eine Zitationszählung innerhalb der Datenbasis einer bestimmten Datenbank, und eine lücken- oder fehlerhafte Zuweisung von Artikeln zu Autoren führt zur Fehlberechnung dieses Wertes.

Fachspezifische Registrierungssysteme

Neben den Ansätzen zur Autorenidentifizierung in den großen, fachübergreifenden Datenbanken gibt es Systeme, die in einer Fachcommunity verbreitet sind. Dazu gehört beispielsweise der RePEc Author Service (https://authors.repec.org/about). Dieses Identifizierungsmodell wurde 1999 gegründet und verlinkt Autorennamen aus dem Bereich der Wirtschaftswissenschaften mit Publikationen in der gleichnamigen Datenbank. Es wird zurzeit von der Economic Research Division der Federal Reserve Bank of Saint Louis gehostet und ist unter Wirtschaftswissenschaftler/innen international verbreitet.[233] Das Verfahren zur Autorenregistrierung läuft ähnlich wie bei Web of Science über das eigenhändige Anlegen eines Profils und das Zuordnen von Publikationen.

Google Scholar Citations

Trotz eingeschränkter Suchmöglichkeiten und Intransparenz der Datenbasis: Google Scholar ist eine der wichtigsten Suchoberflächen für wissenschaftliche Literatur. Auch renommierte Datenbankanbieter versuchen, ihre Produkte mit Google Scholar zu verknüpfen, wie die Verlinkung von Treffern in Web of Science auf Google Scholar aktuell zeigt.

Wer seine Sichtbarkeit in Google Scholar verbessern möchte, erweitert seinen Google Account und legt ein Profil für eigene Publikationen an (Google Scholar Citations). Die Nutzung dieser Google-Funktion ist kostenfrei und für jedermann möglich, der über eine Google Mail-Adresse verfügt.[234]

Mit Google Scholar Citations bekommt ein Autor die Möglichkeit, eigene Publikationen aus Google Scholar in einer eigenen Ansicht sichtbar zu machen. Die bibliographischen Daten werden aus der Datenbasis von Google Scholar importiert. Hierfür bietet Google Unterstützung an und schlägt Publikationen vor, bei denen der Autorname dem eigenen entspricht oder ihm ähnelt. Publikationen, die Google Scholar nicht findet, können manuell nachgetragen werden.

Google Scholar zeigt bei einer Suche nach dem Autorennamen in der Trefferliste einen Eintrag/das Profil für die Person, wenn in Google Scholar Citations neben der Google Mail-Adresse eine zweite universitäre und überprüfte Mailadresse angegeben wurde.

Google Scholar Citations bietet noch weitere Möglichkeiten:

  • Man kann Autoren folgen, die diese Funktion nutzen, d.h. sich automatisch per Mail benachrichtigen lassen, wenn ein Autor eine Änderung vornimmt, z.B. eine neue Publikation einträgt.
  • Man kann das eigene Profil hinterlegen, ein Foto einstellen und Schlagworte für die eigene wissenschaftliche Tätigkeit nennen.
  • Bei allen Artikeln, die über Google Scholar recherchierbar sind, werden Zitationen ermittelt, die ihrerseits mit den entsprechenden Textstellen verlinkt sind.
  • Google Scholar Citations ermittelt Zitationszahlen, bietet Links zu zitierenden Texten an und errechnet den h-Index.[235]

Begleitend zur Einrichtung von Google Scholar Citations ist es sinnvoll, auch die Indizierung der eigenen Werke in Google Scholar im Blick zu haben. Google Scholar nimmt auf Anfrage zusätzliche Inhalte in seinen Index auf, wenn die Publikationen bestimmten Anforderungen entsprechen[236].

Fazit

Akademisches Identitätsmanagement bedeutet, das eigene wissenschaftliche Profil stimmig darzustellen und soweit möglich dafür zu sorgen, dass die eigenen Leistungen zutreffend zugeordnet werden. Dies wird unterstützt von sogenannten Autorenidentifizierungssystemen.

Die ORCID iD erweist sich als Identifizierungsnummer, die sich zunehmend zum Standard entwickelt und von zahlreichen Datenbankanbietern und Institutionen im Wissenschaftsbereich integriert wird. ORCID bietet als plattformübergreifendes Produkt hohe Flexibilität und Nutzerfreundlichkeit, z.B. durch skalierte Rechteverwaltung und Offenheit für unterschiedliche Publikationsformen und Medienarten. Wer wissenschaftlich publiziert, sollte sich eine ORCID iD anlegen und diese überall dort einbinden, wo er als Autor erkannt werden möchte.

Gleichfalls für alle wissenschaftlichen Autoren empfehlenswert ist Google Scholar Citations, das Personen die Möglichkeit gibt, die große Datenbasis von Google Scholar für sich zu nutzen. Wer als Autor in Web of Science indiziert ist, sollte seine Sichtbarkeit mit einer Researcher ID optimieren. Wer in Scopus als Autor genannt wird, sollte überprüfen, ob die ihm zugehörigen Daten in der Scopus Author ID fehlerlos sind und gegebenenfalls einen Korrekturantrag stellen. Falls es fachlich einschlägige weitere Identifizierungsoptionen wie z.B. RePec gibt, sollten sie ebenfalls genutzt werden.

Akademisches Identitätsmanagement ist ein zentraler Baustein wissenschaftlicher Reputation. Erst wer als Autor seiner Werke erkannt wird, kann als potentieller Forschungskooperationspartner angesprochen werden oder darauf setzen, dass bei der Ermittlung bibliometrischer Kennzahlen alle Publikationen berücksichtigt werden. Auch wenn es bisher keine flächendeckende Lösung für die Autorenidentifikation gibt: Wer die hier genannten verschiedenen Bausteine der Autorenidentifizierung kennt und nutzt, wird die eigene Sichtbarkeit als Autor erheblich verbessern können.




Handbuch CoScience/Persönliche digitale Archive und Cloud-Speicherdienste

Seit dem Start von Dropbox im Jahr 2008 sind solche komerziellen Cloud-Backupdienste populär. Im digitalen Alltag heute sind wir auf vielen, zum Teil mobilen, Rechnern zuhause, ""produzieren" kontinuierlich (und seien es nur Urlaubs-Schnappschüsse), und dauerhafte Internet-Konnektivität gehört selbstverständlich dazu. Kein Wunder, dass - in der Grundversion stets kostenlose - Dienste, die im Hintegrund fast ohne eigenes Zutun Sicherheitskopien anlegen und je nach Wunsch die Dateien zwischen mehreren eigenen Rechnern synchron halten, beliebt geworden sind. So gibt es neben Dropboox heute große Mitbewerber wie Google Drive. Und hier ist es wie mit anderen Diensten, die zunächst für den breiten Kosumentenmarkt entwickelt worden sind: Umfragen zeigen, dass die meisten Wissenschaftler in Deutschland heute Dienste wir Dropbox auch in ihrem Arbeitsalltag verwenden.

In diesem Kapitel soll gezeigt werden, welche Eigenschaften solcher Dienste im wissenschaftlichen Alltag nützlich sind, und wo diese Dienste an ihre Grenze stoßen und ggf. durch für die jeweilige Aufgabe besser geeignete Dienste ergänzt oder ersetzt werden können.

Backup und Austausch uumfangreicher Dateisammlungen

Kompromiss: Einfach Datenverlust vermeiden, aber zusätzliche Risiken die damit eingegangen werde

Grenzen: Datensicherheit Alternativen: Freie, selbsgehostete Lösungen wie Ownclloud oder P2P--Synchronisation wie BTSync oder SyncThing

Gemeinsames Arbeiten an Texten und Code

Grenzen: Nur begrenzte Bearbeitungsgescchichte Alternativen: Code Repositories, Github, Doogle Docs

Publizieren und Archivieren

Querverweis auf die Kapitel zum Publizieren sowie zum Publizieren von Daten

Grenzen: keine "Version of record", d.h. kein sstabiler Identifier für veröffentlichte Version

Handbuch CoScience/Messung von wissenschaftlichem Impact

Kontributoren: Ursula Arning, Isabella Peters

Warum wird der wissenschaftliche Impact gemessen?: Bewertung von Forschungs- und Publikationsleistungen

Die Bewertung der Forschungs- und Publikationsleistung spielt in unterschiedlichen Kontexten im Wissenschaftssystem eine große Rolle, insbesondere weil Drittmittel knapp und mit Renommee verbundene Stellen wie Professuren rar sind. Neben der inhaltlichen und qualitativen Bewertung der wissenschaftlichen Leistung durch Peer Review[237], wird auch versucht, Publikationsleistungen von Wissenschaftlerinnen und Wissenschaftlern, Instituten oder Arbeitsgruppen zu quantifizieren. Diese „Vermessung“ von Publikationen wird auch als Bibliometrie (engl. bibliometrics) oder Szientometrie (engl. scientometrics) bezeichnet. Entscheidend sind hierbei in erster Linie drei Kennzahlen[238]:

  • Produktivität: Anzahl der Publikationen
  • Wirkung/Impact: Anzahl der Zitationen
  • Kooperationen: Anzahl der Artikel, die man gemeinsam mit anderen Autoren oder Institutionen publiziert.

Der Zitierung kommt in der Wissenschaft eine besondere Bedeutung zu.

Welche Rolle spielen Zitationen?

Zitationen sind die Währung im Wissenschaftsbetrieb. Wenn Wissenschaftlerinnen und Wissenschaftler auf die Ergebnisse aus Publikationen oder Forschungsdaten anderer zurückgreifen, zitieren sie diese Arbeiten und Daten in ihren Literaturverweisen. Die Gründe, warum zitiert wird, können dabei ganz unterschiedlich sein. Zu den häufigsten Zitiermotiven zählen[239]: Würdigung von Vorarbeiten im Sinne einer guten wissenschaftlichen Praxis, Darstellung des State-of-the-Art, Diskussion oder Kritik der Ergebnisse und/oder der Methodik.

Die Anzahl der Zitierungen wird stellvertretend für die Wirkung (Impact) genommen, die Autorinnen und Autoren mit der Publikation erzielen. Für Zitationen gilt generell: Je häufiger ein Artikel zitiert wird, umso relevanter scheint er zu sein[240]. Irrtümlicherweise wird eine große Anzahl von Zitationen mit Qualität gleichgesetzt. Dass dies unzulässig ist, zeigt die Überlegung, dass auch ein Artikel, der völlig falsche Ergebnisse darstellt, häufig zitiert werden kann. Die Fachkollegen greifen die Inhalte auf, um diese dann zu kritisieren. Im Umkehrschluss bedeutet das auch, dass wenig zitierte Artikel nicht qualitativ schlechter sein müssen. Zudem ist die Zitierhäufigkeit an sich wenig aussagekräftig. Hierzu werden Vergleichswerte benötigt (z.B. wie häufig werden andere Artikel im gleichen Fach durchschnittlich zitiert). Generell kann es unterschiedlich lange dauern bis wissenschaftliche Ergebnisse rezipiert und zitiert werden.

Wie wird der Impact gemessen?

Grundlage für die Bewertung von Publikationsleistungen in Form einer Impact-Messung markieren in erster Linie Publikationslisten von Autorinnen und Autoren, von Arbeitsgruppen oder Institutionen. Um die Zitierhäufigkeit zu bestimmen, wird auf fachübergreifende Zitationsdatenbanken wie Web of Science[241] und Scopus[242] zurückgegriffen. Auch Google Scholar[243] kann für solche Analysen herangezogen werden. Es hat sich aber gezeigt, dass die Daten zuvor bereinigt werden müssen, unter anderem um Artikel-Dubletten zu erkennen und zusammenzuführen[244]. Darüber hinaus gibt es auch fachspezifische Zitationsindices wie beispielsweise CiteSeer[245], die ebenfalls Zitationen auf Artikel erfassen.

Welche Probleme bei der Impact-Messung gibt es?

Hauptproblematik der Zitationsindizes und somit der Impact-Messung ist, dass nur Zitierhäufigkeiten innerhalb der Datenbank erfasst werden, die Häufigkeit, mit der ein Artikel zitiert wird, also de facto deutlich höher sein kann[246]. In diesem Zusammenhang muss auch erwähnt werden, dass gerade bei den fachübergreifenden Datenbanken wie Web of Science und Scopus einzelne Disziplinen unterschiedlich vollständig erfasst werden. Während bei STM-Fächern generell eine gute Abdeckung erreicht wird, sind geistes- und sozialwissenschaftliche Fächer eher unzureichend abgebildet, so dass es hier zu Verzerrungen im Hinblick auf die Anzahl der Zitationen kommen kann.

Zudem erfassen die Datenbanken in erster Linie (englischsprachige) Zeitschriftenliteratur, wenngleich auch ein kleiner Teil an Büchern und Konferenzbeiträgen vertreten ist[247]. Dies führt dazu, dass Disziplinen, die häufig in Form von Monografien und Sammelbänden publizieren oder eine stark von der Landessprache geprägte Fächerkultur haben, weniger stark vertreten sind und Zitationsanalysen hierfür wenig aussagekräftig sind. Grundsätzlich wird dadurch auch die anwendungsorientierte Forschung vernachlässigt, da diese überwiegend in anderen Publikationsorganen (z.B. in Patenten) oder in Reports zu finden sind, die von den Datenbanken nur unzureichend erfasst werden.

Bewertung und Impact-Messung von Zeitschriften: Was ist ein Journal Impact Factor und was muss bei seiner Interpretation beachtet werden?

Zitierhäufigkeiten werden auch zur Kategorisierung von Zeitschriften verwendet und sind somit Bewertungskriterium bei der Wahl des Publikationsortes[248] und schlussendlich auch bei der Bewertung der Publikationsleistung. Hierzu wird häufig der Journal Impact Factor (JIF) herangezogen.

  • Journal Impact Factor (JIF)

JIF-Werte werden einmal jährlich in den Journal Citation Reports (JCR)[249] veröffentlicht, die vom Informationsanbieter Thomson Reuters als kommerzielles Produkt vertrieben werden. Als Berechnungsgrundlage dienen die in der Datenbank Web of Science erfassten Zeitschriften aus den Kollektionen „Science Citation Index“ und „Social Science Citation Index“ und deren Zitierhäufigkeiten.

Der JIF berechnet sich dabei wie folgt: Anzahl der Zitationen im Berichtjahr auf Publikationen der Zeitschrift aus den zwei vorangegangenen Jahren, geteilt durch die Anzahl der in den zwei vorangegangenen Jahren in dieser Zeitschrift erschienenen Artikel. Im Zähler werden dabei Zitationen auf alle Artikel der Zeitschrift aus den beiden Jahren einbezogen, im Nenner werden allerdings nur bestimmte Artikeltypen wie wissenschaftliche Artikel berücksichtigt[250]. Ein Journal Impact Factor von 2 bedeutet, dass jeder Artikel aus den zwei Jahren vor dem Berichtsjahr im Berichtsjahr durchschnittlich zwei Mal zitiert wurde. Hierbei gilt es zu beachten, dass es sich dabei um Durchschnittswerte für die Zeitschrift handelt: Der Journal Impact Factor macht keine Angaben zu einzelnen Artikeln. Die tatsächliche Zitierhäufigkeit kann entweder darüber oder darunter liegen. Zitatverteilungen sind „schief“: Es gibt wenige Artikel, die häufig zitiert werden und viele Artikel, die wenig bis gar nicht zitiert werden.

Der JIF und insbesondere seine Verwendung bei der Impact-Messung im Rahmen der Bewertung von Publikationsleistungen ist sehr umstritten. Hier einige der Kritikpunkte:

  • Falsche Verwendung: Der JIF wurde ursprünglich dazu entwickelt, Bibliothekarinnen und Bibliothekaren eine Hilfestellung dahingehend zu geben, welche Zeitschriften sie idealerweise für ein Fachgebiet anschaffen sollen. Es ist somit ein Instrument zur Bewertung von wissenschaftlichen Zeitschriften. Mittlerweile wird er aber auch zur Bewertung von Forschungsleistungen von Wissenschaftlerinnen und Wissenschaftlern dahingehend herangezogen, dass eine Publikation in einer Zeitschrift mit möglichst hohem JIF als besonders wissenschaftlich relevant betrachtet wird.
  • Unzulässige Verallgemeinerung: Der JIF wird nicht selten mit der Qualität einer Zeitschrift gleichgesetzt und auf die darin erschienen Artikel übertragen. Dies ist aber unzulässig. Die Zitierhäufigkeit kann lediglich für die Wirkung einer Zeitschrift verstanden werden, weniger für die Qualität einzelner Artikel, die darin erschienen sind.
  • Fehlende Berücksichtigung der Praxen in der jeweiligen Disziplin: Der JIF ist nicht feldnormalisiert, d.h. er berücksichtigt nicht das spezifische Zitierverhalten eines Faches. JIF-Werte von Zeitschriften aus unterschiedlichen Fachgebieten lassen sich deshalb nicht miteinander vergleichen. Auch Vergleiche von Zeitschriften innerhalb einer Disziplin sind problematisch, wenn das Zitierverhalten auch innerhalb der Disziplin variiert. Das standardmäßig zur Berechnung verwendete Zitatfenster von zwei Jahren ist für viele Disziplinen zu kurz, um die Wirkung zu erfassen. In manchen Disziplinen dauert es länger, bis wissenschaftliche Ergebnisse rezipiert werden. Selbst das in den Journal Citation Reports (JCR) zusätzlich verwendete Zitatfenster von fünf Jahren ist insbesondere für Disziplinen in den Sozial- und Geisteswissenschaften noch zu kurz.
  • Manipulationsanfälligkeit: Der JIF kann durch Selbstzitate auf die jeweilige Zeitschrift (Artikel aus der Zeitschrift zitieren andere Artikel aus der Zeitschrift) künstlich erhöht werden.
  • Fehlende Berücksichtigung von Dokumenttypen: Die Zitierhäufigkeit einer Zeitschrift ist auch abhängig davon, welche Dokumenttypen sie veröffentlicht. So werden Review-Artikel (Überblicksartikel) deutlich häufiger zitiert als andere Dokumenttypen. Zeitschriften, die viele Review-Artikel publizieren, können daher mehr Zitationen für sich verbuchen und haben tendenziell einen höheren JIF.

Welche Alternativen zum Journal Impact Factor gibt es?: Weitere zitationsbasierte Metriken zur Impact-Messung

h-Index oder Hirsch-Index

Im Gegensatz zum JIF ist der h-Index[251] eine Metrik, die die Publikationsleistung einer Wissenschaftlerin/eines Wissenschaftlers stärker in den Blick nimmt, wenngleich er auch für Arbeitsgruppen oder Institutionen verwendet werden kann. Bei der Berechnung wird die Publikationsliste absteigend nach Zitierhäufigkeit sortiert. Dort, wo Rangplatz und Zitierhäufigkeit identisch sind (oder dort, wo die Zitierhäufigkeit mindestens so hoch ist wie der Rangplatz), liegt der h-Index einer Autorin oder eines Autors[252]. Auch der h-Index ist nicht unproblematisch, so berücksichtig dieser beispielsweise nicht die Unterschiede im Zitierverhalten in den unterschiedlichen Disziplinen. Dies erschwert disziplinenübergreifende Vergleiche. Auch wird die unterschiedliche Karrierelänge von Wissenschaftlerinnen und Wissenschaftlern, die ebenfalls Einfluss auf die Höhe des h-Indexes haben kann, nicht berücksichtigt. Aus diesem Grund eignet sich auch der h-Index nicht, Publikationsleistungen umfassend zu bewerten.

Source Normalized Impact per Paper (SNIP) und SCImago Journal Rank (SJR)

Insbesondere aufgrund der methodischen Kritik am Journal Impact Factor und des missbräuchlichen Einsatzes bei der Bewertung von Publikationen sind zahlreiche weitere Metriken entstanden. Die Indikatoren SCImago Journal Rank (SJR) und Source Normalized Impact per Paper (SNIP) sind Metriken, die auf Grundlage der Datenbank Scopus berechnet werden[253]. Beide arbeiten mit einem Zitatfenster von drei Jahren (anstelle von zwei wie beim JIF). Der SJR bezieht bei der Berechnung des Impacts auch das Prestige der Zeitschriften[254] mit ein, die eine Ausgangszeitschrift zitieren, der SNIP berücksichtigt zudem die durchschnittliche Zitierhäufigkeit einer Disziplin. Auch hier gilt: Da beide Indikatoren für die Bewertung von Zeitschriften konzipiert wurden, sind sie zur Bewertung von Publikationsleistungen einzelner Wissenschaftlerinnen und Wissenschaftler eher ungeeignet.

Feldnormalisierte Zitatmaße und Anteil an hochzitierten Publikationen

Zur Einschätzung und Bewertung von Publikationsleistungen eigenen sich solche Indikatoren besser, die disziplinenspezifische Unterschiede im Hinblick auf Publikations- und Zitierverhalten mitberücksichtigen. Zu nennen sind hier unter anderem feldnormalisierte Zitatmaße wie beispielsweise Mean Normalized Citation Score (MNCS)[255]oder Maße, die Angaben darüber machen, zu welchem Anteil Publikationen von Autorinnen und Autoren/ Arbeitsgruppen/ Institutionen in den Top-10% der meistzitierten Publikationen eines Fachgebiets vertreten sind[256].

Wenn diese zur Bewertung der Publikationsleistung herangezogen werden, ist darauf zu achten, dass immer mehrere Indikatoren verwendet werden, weil jeder einzelne Indikator bestimmte Aspekte der Publikationsleistung misst (z.B. Zitierhäufigkeit eines Artikels in Relation zur durchschnittlichen Zitierhäufigkeit innerhalb einer Disziplin).

Welche neuen Ansätze gibt es, um den Impact zu messen?: Article-based Metrics und Altmetrics

Wie oben bereits ausgeführt, ist der vielleicht am häufigsten genannte Kritikpunkt bezüglich der für die Impact-Messung verwendeten Maße wie JIF und h-Index, dass diese nicht die einzelnen Publikationen betrachten. Zudem wird kritisiert, dass sich ausschließlich auf Publikationen in Peer-Review-Zeitschriften fokussiert wird, dass Publikationsleistungen aber deutlich diverser sein können (z.B. Publikation von Forschungsdaten), diese aber in der bisherigen Impact-Messung kaum Berücksichtigung finden[257].

Als Alternative werden daher Altmetrics diskutiert[258]. Der Begriff setzt sich zusammen aus den englischen Begriffen alternative und metrics und meint alternative (im Sinne von ergänzende) Methoden zur Messung der Wirkung einer Publikation. Altmetrics setzen in erster Linie auf die Verwendung von sozialen Medien (z.B. Weiterverbreitung des Artikels über Twitter und Facebook oder mittels Reference-Manager-Systeme wie Mendeley).

Altmetrics sind derzeit noch in den Anfängen, die Frage nach der Interpretierbarkeit bestimmter alternativer Kennzahlen ist zudem noch nicht geklärt. Generelles Ziel ist es, Alternativen zur bisherigen Impact-Messung auszuloten[259] und diese auf einzelne Artikel herunterzubrechen[260]. Altmetrics eignet sich derzeit bereits gut zur Filterung von relevanter Literatur und hat durchaus auch Elemente von „Open Peer Review“, wenn wissenschaftliche Ergebnisse aus Publikationen in Blogs etc. diskutiert werden[261].

Altmetrics ermöglichen es zudem, den Impact nicht nur von Zeitschriftenpublikationen, sondern auch von anderen „Produkten“ der Forschungsleistungen wie beispielsweise von Forschungsdaten, Blogeinträgen oder Diskussionsbeiträgen auf Internetseiten zu messen. Durch die Auswertung einer ganzen Bandbreite von unterschiedlichen sozialen Medien wie beispielsweise Blogs, Facebook oder Twitter kann auch die Wirkung einer Publikation „außerhalb“ des Wissenschaftsbetriebs gemessen werden. Ein weiterer Vorteil ist die Schnelligkeit: Altmetrics können nahezu in Echtzeit gemessen werden. Häufiger Kritikpunkt ist allerdings, dass nicht unterschieden werden kann, ob der Impact durch Autorinnen/Autoren selbst erzeugt wird (indem sie die soziale Medien dazu nutzen, ihre Publikationen zu verbreiten) oder durch andere und Altmetrics daher manipulationsanfällig sind[262]. Es gibt eine Reihe von Tools, mit denen man alternative Kennzahlen für Publikationen ermitteln kann. Dazu gehören Altmetric Explorer[263], ImpactStory[264], Plum Analytics[265] oder Webometric Analyst[266]. Einige Verlage haben zudem entsprechende Tools in ihre Webseiten integriert, um dort den alternativen Impact ihrer Artikel zu messen[267].

Was bedeutet das für Wissenschaftlerinnen und Wissenschaftler?

Nachdem ausführlich dargelegt wurde, wie Publikationsleistungen bewertet werden, stellt sich die Frage, was Wissenschaftlerinnen und Wissenschaftler mit den Informationen konkret anfangen. Hier einige Hinweise:

  • Zu Beginn der wissenschaftlichen Karriere wird der wissenschaftliche Nachwuchs in der Regel durch seine Betreuerin/seinen Betreuer, in der Graduiertenschule oder von erfahrenen Kolleginnen und Kollegen angeleitet, wo idealerweise publiziert werden sollte, um die Karriereleiter zu erklimmen. Die Auswahl der Publikationsorgane folgt dabei oft einem oben beschriebenen Kriterium, d.h. man versucht mit einer Publikation möglichst in einer Zeitschrift unterzukommen, die einem eine größtmögliche Wirkung verspricht, trotz aller Kritik an den Maßen.
  • Bei Berufungsverfahren oder bei Drittmittelanträgen wird man meist aufgefordert, seine Publikationsleistung zu dokumentieren. Neben dem Erstellen einer Publikationsliste als einen quantitativen Beleg wird häufig auch abgefragt, welche Wirkung die Publikationen erzielt haben. Hier können zum einen die Journal Impact Factors (JIF) der Zeitschriften, in denen man publiziert hat, abgefragt werden oder konkrete Angaben darüber, wie häufig die einzelnen Publikationen zitiert wurden. Journal Impact Factors lassen sich über die Journal Citation Reports (JCR) ermitteln, die viele Hochschulbibliotheken abonniert haben. Zitierhäufigkeiten für die eigenen Publikationen lassen sich in den oben beschriebenen Zitationsdatenbanken Web of Science und Scopus ermitteln, die ebenfalls von vielen Hochschulbibliotheken für die jeweiligen Angehörigen der Hochschulen lizenziert worden sind. Falls verfügbar, sollten die Zahlen aus beiden Datenbanken ermittelt werden, weil beide jeweils andere Schwerpunkte hinsichtlich der Abdeckung der Quellen (wie Zeitschriften) setzen. Der h-Index lässt sich über die Datenbank Scopus ermitteln oder selbst bestimmen (siehe oben). Zusätzlich kann es auch ratsam sein, einzelne Article-based Metrics (z.B. Nennung in wissenschaftlichen Blogs) anzuführen, um ein Bewusstsein für Alternativen zu schaffen.
  • An geeigneter Stelle (wie z.B. Universitätsgremien, Fachgesellschaften oder auch Konferenzen) sollte immer wieder auf die Probleme von zitationsbasierten Metriken hingewiesen und oben beschriebene Alternativen aufgezeigt werden, um einer einseitigen Bewertung von Publikationsleistungen entgegenzuwirken.
  • Auch bei der Evaluierung der Publikationsleistungen der eigenen Arbeitsgruppe oder des Institutes (beispielsweise durch die Universitätsverwaltung oder Drittmittelgeber) sollte darauf hingewiesen werden, dass es neben Journal Impact Factor und h-Index noch andere Kennzahlen gibt, die die Publikationsleistung beispielsweise in Relation zur durchschnittlichen Leistung in der Disziplin setzt und sich insbesondere für Vergleiche besser eignen.
  • Grundsätzlich empfiehlt es sich für Wissenschaftlerinnen und Wissenschaftler, sich auch mit Altmetrics-Tools vertraut zu machen und deren Möglichkeiten für die persönliche Evaluierung der eigenen Publikationsleistung auszuloten. Hierüber lässt sich unter anderem bestimmen, in welchen Kanälen die eigenen Forschungsergebnisse diskutiert und weiterverbreitet werden.


Einzelnachweise

  1. Koenig, Robert (1997). Panel Calls Falsification in German Case 'Unprecedented'. Science 277, 15 August 1997, S. 894, http://www.albany.edu/~scifraud/data/sci_fraud_4005.html
  2. Alicia Shiu: The STAP scandal: a post-pub peer review success story, Publons Blog, 27 June 2014, http://blog.publons.com/post/90031790568/the-stap-scandal-a-post-pub-review-success-story; Academic Scandal Shakes Japan, New York Times, 6 July 2014,http://www.nytimes.com/2014/07/07/world/asia/academic-scandal-shakes-japan.html
  3. Snow, Charles Percy: The Affair, London 1960
  4. The European Code of Conduct on Research Integrity (lead author: Pieter Drenth) http://www.esf.org/fileadmin/Public_documents/Publications/Code_Conduct_ResearchIntegrity.pdf, dazu auch Global Research Council (2013). Statement of Principles and Actions for Shaping the Future: Supporting the Next Generation of Researchers,http://www.globalresearchcouncil.org/statement-principles-research-integrity
  5. Zielführend hierfür sind insbesondere Rahmenleitlinien und -vereinbarungen für die Betreuung wissenschaftlicher Promotionen. Vgl. z.B. Niedersächsische Leitlinien zur Promotion: http://www.mwk.niedersachsen.de/aktuelles/presseinformationen/gute-beratung-und-hohe-qualitaetsstandards--128883.html, Universität Bielefeld: https://www.uni-bielefeld.de/nachwuchs/pdfs/LeitlinienBetreuungUniBi2010504.pdf, Technische Universität Berlin: https://www.tudoc.tu-berlin.de/fileadmin/f22/Einrichtungsdaten/V_NW/Dokumente-Prom-dt/Rahmenleitlinien_Mai_2011.pdf
  6. The Open Science Peer Review Oath: Aleksic, Jelena et al. retrieved from ZENODO, DOI 10.5281/zenodo.12273
  7. z.B. Angabe der Rollen der Autoren bei eLife: http://elifesciences.org/content/3/e03433/article-info
  8. Vgl. die strikter formulierten Kriterien des International Committee of Medical Journal Editors, http://www.icmje.org/recommendations/browse/roles-and-responsibilities/defining-the-role-of-authors-and-contributors.html
  9. http://credit.casrai.org/proposed-taxonomy/; Allen, Liz et al: Publishing: Credit where credit is due, Nature, 16 April 2014, http://www.nature.com/news/publishing-credit-where-credit-is-due-1.15033
  10. Best Practices for Ensuring Scientific Integrity and Preventing Misconduct,http://www.oecd.org/science/sci-tech/40188303.pdf, Organization for Economic Co-operation and Development (OECD) (2007).
  11. Z.B. Titus, Sandra L.; Wells, James A.; Rhoades, Lawrence J. (2008): Repairing research integrity, nature Vol 453, No. 19, June 2008,http://www.ori.dhhs.gov/sites/default/files/gallup_commentary.pdf Fanelli D (2009) How Many Scientists Fabricate and Falsify Research? A Systematic Review and Meta-Analysis of Survey Data. PLoS ONE 4(5): e5738. doi:10.1371/journal.pone.0005738 Okonta and Rossouw BMC Medical Ethics 2014, 15:25 http://www.biomedcentral.com/1472-6939/15/25, doi:10.1186/1472-6939-15-25
  12. Ordnung der Georg-August-Universität Göttingen zur Sicherung guter wissenschaftlicher Praxis (gültig ab 21.12.2012), https://www.uni-goettingen.de/de/gute-wissenschaftliche-praxis--ombudsangelegenheiten-/223832.html
  13. Press Release No. 8 | 28. March 2014 "DFG Modifies Rules for Publication Lists" http://www.dfg.de/en/service/press/press_releases/2014/press_release_no_08/index.html
  14. Vgl. z.B. Wie die Wissenschaft Integrität und Qualität sichern kann, Thesenpapier der Gäste des 4. Berliner Wissenschaftsgesprächs der Robert Bosch Stiftung, November 2009,http://www.bosch-stiftung.de/content/language1/downloads/Thesenpapier_BWG_4.pdf
  15. Hochschulinformationssystem eG Pressemitteilung 12.7.2013: "Neue DFG-Empfehlungen zum Whistleblowing werden kontrovers diskutiert"; http://www.his.de/presse/get_pressedata/1248/get_pressedata_show
  16. Empfehlung der 14. HRK-Mitgliederversammlung vom 14.5.2013, online verfügbar unter http://www.hrk.de/uploads/tx_szconvention/Empfehlung_GutewissenschaftlichePraxis_14052013_02.pdf
  17. Deutsche Forschungsgemeinschaft (DFG). Gute wissenschaftliche Praxis, http://www.dfg.de/foerderung/grundlagen_rahmenbedingungen/gwp/ Max Planck Gesellschaft: https://www.mpg.de/199453/ombubspersonRichtlinien.pdf, Helmholtz Gemeinschaft: http://www.helmholtz.de/forschung/gute_wissenschaftliche_praxis/, Fraunhofer-Gesellschaft: http://www.fraunhofer.de/de/ueber-fraunhofer/mission-leitbild/forschung.html, Leibniz-Gemeinschaft: http://www.leibniz-gemeinschaft.de/forschung/gute-wissenschaftliche-praxis/
  18. Empfehlung der 14. HRK-Mitgliederversammlung vom 14.5.2013, online verfügbar unter http://www.hrk.de/uploads/tx_szconvention/Empfehlung_GutewissenschaftlichePraxis_14052013_02.pdf
  19. http://www.ombudsman-fuer-die-wissenschaft.de/
  20. http://publicationethics.org
  21. http://www.ncbi.nlm.nih.gov/pubmed
  22. Vgl. Fang, Ferric C.; Steen, R. Grant; Casadevall, Arturo, Misconduct accounts for the majority of retracted scientific publications, PNAS 2012 109, doi:17028-17033
  23. http://retractionwatch.com/
  24. http://www.ithenticate.com/products/crosscheck
  25. http://oaspa.org/principles-of-transparency-and-best-practice-in-scholarly-publishing/
  26. http://wowter.net/2013/12/24/towards-five-stars-transparent-pre-publication-peer-review/
  27. https://publons.com/, https://www.peerageofscience.org/
  28. z.B. Informationsseite der Göttinger Graduiertenschule Gesellschaftswissenschaften: http://www.uni-goettingen.de/de/221853.html
  29. http://www.uni-frankfurt.de/48913882/Good-Scientific-Practice
  30. http://www.phdontrack.net/
  31. Sponholz, Gerlinde: Curriculum für Lehrveranstaltungen zur „Guten wissenschaftlichen Praxis“ für alle wissenschaftlichen Disziplinen (Stand: 2012) http://www.ombudsman-fuer-die-wissenschaft.de/index.php?id=6096
  32. z.B. http://ccnmtl.columbia.edu/projects/rcr/index.html
  33. Sponholz, Gerlinde: Curriculum für Lehrveranstaltungen zur „Guten wissenschaftlichen Praxis“ für alle wissenschaftlichen Disziplinen (Stand: 2012) http://www.ombudsman-fuer-die-wissenschaft.de/index.php?id=6096
  34. Exemplarisch seien hier drei im Juli 2014 veröffentlichte Forschungsdatenpolicies genannt: Universität Bielefeld, https://data.uni-bielefeld.de/de/policy; Humboldt Universität zu Berlin, http://www.cms.hu-berlin.de/ueberblick/projekte/dataman/policy; Georg-August-Universität Göttingen, http://www.uni-goettingen.de/de/488918.html
  35. Vgl. die Programmiersprachen R und Python für Datenanalyse/-visualisierung, GitHub für Versionierung und Veröffentlichung von Code und die Verzeichnisse von Forschungsdatenrepositorien re3data.org und databib.org.
  36. Cathy De Rosa u. a.: Perceptions of Libraries and Information Resources. OCLC Online Computer Library Center, Dublin, Ohio 2005, ISBN: 1-55653-364-0, abgerufen am 13.03.2014.
  37. Henning Behme: Wikipedia korrekt zitieren.
  38. http://de.wikipedia.org/wiki/Zitieren_von_Internetquellen#Tipps
  39. Morten Hertzum: Collaborative Information Seeking: The Combined Activity of Information Seeking and Collaborative Grounding. In: Information Processing & Management. Band 44, Nr. 2, 2008, S. 957-962.
  40. Jason Priem u.a.: altmetrics: a manifesto.
  41. http://de.wikibooks.org/wiki/LaTeX-Kompendium:_Zitieren_mit_BibTeX
  42. Scott Golder, Bernado A. Huberman: The Structure of Collaborative Tagging Systems. 2005, CoRR cs/0508082.
  43. Michael Goossens, Frank Mittelbach und Alexander Samarin: Der LaTeX-Begleiter. Addison-Wesley, Bonn/Paris 1994.
  44. Idee nach Peter Meurer und Manfred Schluchter: Einführung in das wissenschaftliche Arbeiten mit Citavi 4. ''Hinweise zum Schreiben wissenschaftlicher Arbeiten mit der Software »Citavi – Literaturverwaltung und Wissensorganisation«.'' Auf Basis des Duden-Buchs »Die schriftliche Arbeit – kurz gefasst« von Jürg Niederhauser., Wädenswil 2013 ([1]).
  45. https://www.readcube.com/
  46. http://www.qiqqa.com/
  47. www.citavi.de
  48. http://endnote.com/; http://www.adeptscience.de/products/refman/endnote
  49. vgl. Astrid Teichert und Thomas Stöber: ''Webbasierte Literaturverwaltung – neue Kooperationsformen und Anwendungsszenarien.'' In: ''B.I.T.online.''Nr. 4 2008, S. 407f. ([2]).
  50. http://www.refworks.com/de/
  51. http://www.mendeley.com/
  52. vgl. Matti Stöhr: Kombinierte Systeme - Eine Ergänzung der Typologie von Literaturverwaltungssoftware nach Thomas Stöber und Astrid Teichert. ([3])
  53. http://bibdesk.sourceforge.net/
  54. http://home.gna.org/kbibtex/
  55. http://jabref.sourceforge.net/
  56. https://www.colwiz.com/
  57. http://www.docear.org/
  58. http://www.zotero.org
  59. vgl. Dorothea Lemke: Softwarevergleich Literaturverwaltung. 4. Auflage. Universitätsbibliothek der Technischen Universität München, München 2014 ([4])
  60. vgl. Dorothea Lemke: Literaturverwaltungsprogramme im Vergleich – ein Werkstattbericht zur 3. Aktualisierung. 2013 ([5])
  61. vgl. Dorothea Lemke: Softwarevergleich Literaturverwaltung. 4. Auflage. Universitätsbibliothek der Technischen Universität München, München 2014 ([6])
  62. Anleitung: Peter Bonekämper: Mobiles Arbeiten mit Citavi auf USB-Sticks. ([7])
  63. Anleitung: Swiss Academic Software GmbH: Citavi 4: Handbuch. Installation auf dem Mac. 2014 ([8])
  64. Tutorial zu Altmetrics: Technischen Universität München, Universitätsbibliothek: Altmetrics. Alternative Metrics. 2014 ([9])
  65. vgl. Tobias Maier: Mendeley gehört jetzt Elsevier. Und außer den beiden ist keiner begeistert. 2013 ([10])
  66. vgl. Beatrice Lugger: Mendeley in den Händen von Elsevier. Heidelberg 2013 ([11])
  67. vgl. Jana Votteler: Colwiz – collective wizdom made in Oxford. 2014 ([12])
  68. Anleitung: Swiss Academic Software GmbH: Citavi 4: Handbuch. Installation auf dem Mac. 2014 ([13])
  69. vgl. ubuntuusers – Forumsbeitrag. 2013 ([14])
  70. vgl. Antonio Tejada, [Citavi Customer Service]: Running Citavi under Wine. 2010 ([15]).
  71. Uta Renken: Forscher ohne Grenzen – Soziale Netzwerke für Forscher. In: Torsten Eymann (Hrsg.). Tagungsband zum Doctoral Consortium der WI 2011. 2011, ISBN 1864-9300 (Bayreuther Arbeitspapiere zur Wirtschaftsinformatik), S. 146–154 ([16])
  72. 72,0 72,1 72,2 72,3 Lambert Heller: Bibliographie und Sacherschließung in der Hand vernetzter Informationsbenutzer. In: ''BIBLIOTHEK Forschung und Praxis.''31, Nr. 2 2007, S. 162–172 ([17]).
  73. vgl. Uta Renken: Forscher ohne Grenzen – Soziale Netzwerke für Forscher. In: Torsten Eymann (Hrsg.). Tagungsband zum Doctoral Consortium der WI 2011. 2011, ISBN1864-9300 (Bayreuther Arbeitspapiere zur Wirtschaftsinformatik), S. 146–154 ([18])
  74. Rittenbruch, Markus; Poschen, Meik; Kahler, Helge; Törpel, Bettina (2001), "Kooperationsunterstützung in einer teambasierten Virtuellen Organisation: Eine Langzeit-Fallstudie". In: Rohde, Markus; Rittenbruch, Markus; Wulf, Volker (Hrsg.), Auf dem Weg zur virtuellen Organisation: Fallstudien, Problembeschreibungen, Lösungskonzepte. Heidelberg: Physica. pp.55-78. http://dx.doi.org/10.1007/978-3-642-93644-9_4, S. 59
  75. Projektziel auf Wikipedia. Abgerufen am 3. März 2014.
  76. http://agilemanifesto.org/
  77. Vgl.: Cockburn A.; Highsmith J. (2001) Agile Software Development: The People Factor. Computer : innovative technology for computer professionals, 34 (11), S. 131-133. http://dx.doi.org/10.1109/2.963450
  78. Kerzner, Harold R. (2013) Project Management: A Systems Approach to Planning, Scheduling, and Controlling, Wiley, 11. Aufl., ISBN: 978-1-118-02227-6
  79. Bugtracker in Wikipedia
  80. Vgl. König, René; Nentwich, Michael (2012) Cyberscience 2.0: Research in the Age of Digital Social Networks, Frankfurt am Main: Campus-Verlag, S. 60.
  81. Thomas, Dominic M.; Bostrom, Robert P.; Gouge, Marianne (2007) Making knowledge work in virtual teams. Communications of the ACM, 50 (11), Pages 85-90. http://dx.doi.org/10.1145/1297797.1297802
  82. Kerth, N. L. (2003). Post mortem: IT-Projekte erfolgreich auswerten. mitp-Verlag.
  83. Birk, A., Dingsøyr, T., & Stålhane, T. (2002). Postmortem: Never leave a project without it. IEEE software, 19(3), 43-45
  84. Nelson, R. Ryan. "Project retrospectives: evaluating project success, failure, and everything in between." MIS Quarterly Executive 4.3 (2005): 361-372
  85. Citizen Science in Wikipedia. Abgerufen am 04.03.2014.
  86. Lepczyk, Christopher A. (2005) Journal of Applied Ecology 42 (4), Seiten 672-677. DOI: http://dx.doi.org/10.1111/j.1365-2664.2005.01059.x
  87. "Weißt du wie viel Sternlein stehen? Verlust der Nacht App misst Himmelshelligkeit" auf www.citizen-science-germany.de
  88. Vgl. dazu Cade, D.L.: PhotosNormandie: An Online Archive of 3,000+ CC Photos from WWII.
  89. Siehe auch: Wiggins, Andrea; Crowston, Kevin: From Conservation to Crowdsourcing: A Typology of Citizen Science. 44th Hawaii International Conference on System Sciences (HICSS), 2011. DOI: http://dx.doi.org/10.1109/HICSS.2011.207
  90. Siehe auch Kapitel Freie Lizenzen und Nachnutzung
  91. Nov, Oded (2007) What motivates Wikipedians?, Communications of the ACM, 50 (11), Seiten 60-64. DOI: http:dx.doi.org/10.1145/1297797.1297798
  92. Yasseri, Taha; Kornai, András; Kertész, János (2012) A Practical Approach to Language Complexity: A Wikipedia Case Study, PLoS ONE, 7(11): e48386. DOI: http://dx.doi.org/10.1371/journal.pone.0048386
  93. Rohdaten des Google Books N-Gram Viewers
  94. Raymundo, Rubí; Kleinwechter, Ulrich; Asseng, Senthold (2014), Virtual potato crop modeling: A comparison of genetic coefficients of the DSSAT-SUBSTOR potato model with breeding goals for developing countries. ZENODO. DOI: http://dx.doi.org/10.5281/zenodo.7687
  95. Hauschke, Christian (2013) Members of Deutscher Bibliotheksverband e.V. figshare. DOI: http://dx.doi.org/10.6084/m9.figshare.647329
  96. MB #33 Precontact Site Artifact Inventory. Hartgen Archeological Associates, Inc. 2013 (tDAR ID: 392085) ; http://doi.org/10.6067/XCV8TD9Z8M
  97. ATLAS Collaboration ( 2013 ) HepData, DOI: http://doi.org/10.7484/INSPIREHEP.DATA.A78C.HK44
  98. Vgl. Ruffer, Galya B. (2011) What Ushahidi can do to track displacement, Forced Migration Review, 38, S. 25-26. http://www.fmreview.org/technology/ruffer.html
  99. Hauschke, Christian (2011) "SOAP-Daten in Google Fusion Tables". In: Infobib. Zuletzt abgerufen am 13.03.2014
  100. Isenberg, Petra; Elmqvist, Niklas; Scholtz, Jean; Cernea, Daniel; Ma, Kwan-Liu; Hagen, Hans (2011) Collaborative visualization: Definition, challenges, and research agenda. Information Visualization, 10 (4), Seiten 310-326, DOI: http://dx.doi.org/10.1177/1473871611412817
  101. Vgl. Bresciani, Sabrina; Eppler, Martin J.: The Risks of Visualization : a Classification of Disadvantages Associated with Graphic Representations of Information. CA Working Paper # 1/2008, February 2008.
  102. Butler, Decan (2006) "Mashups mix data into global service". Nature (2006) 439 (7072), Seiten 6-7. DOI: http://dx.doi.org/10.1038/439006a
  103. Vgl. Tsaftaris, Sotirios A. (2014) A Scientist's Guide to Cloud Computing. Computing in Science & Engineering, 16 (1), Seiten 70-76. DOI: http://dx.doi.org/10.1109/MCSE.2014.12
  104. Mullard, Asher; Butler, Decan (2008) "Google pulls out of science data project". In: Nature News Blog. Zuletzt aufgerufen am 13.03.2014.
  105. Ben Kaden: Elektronisches Publizieren. In: Rainer Kuhlen, Wolfgang Semar, Dietmar, Strauch (Hrsg.): Grundlagen der praktischen Information und Dokumentation: Handbuch zur Einführung in die Informationswissenschaft und -praxis. De Gruyter Saur 2004, S. 513.
  106. Stevan Harnad: Crowd-Sourced Peer Review: Substitute or supplement for the current outdated system? (http://blogs.lse.ac.uk/impactofsocialsciences/2014/08/21/crowd-sourced-peer-review-substitute-or-supplement/). In: LSE - The Impact of Science Blog, 21. August 2014, abgerufen am 19. September 2014.
  107. Ben Kaden (2004), S. 516.
  108. Ausführliche Informationen zu den Themen siehe: Alexander von Humboldt-Stiftung (Hrsg.): Publikationsverhalten in unterschiedlichen wissenschaftlichen Disziplinen. Beiträge zur Beurteilung von Forschungsleistungen. Zweite erweiterte Auflage 12/2009 (http://www.humboldt-foundation.de/pls/web/docs/F13905/12_disk_papier_publikationsverhalten2_kompr.pdf).
  109. Unter der Abkürzung werden Naturwissenschaft, Technik und Medizin zusammengefasst.
  110. Beispielsweise die Kategorisierung in A-, B- und C-Journals in den Wirtschaftswissenschaften.
  111. Journal Citation Reports (JCR) ist ein von Thomson Reuters vertriebenes Produkt. Der darin enthaltene Journal Impact Factor (JIF) wird unter anderem zur Bewertung von Zeitschriften herangezogen. Basis hierfür bildet die Häufigkeit, mit der Artikel der jeweiligen Zeitschrift zitiert werden.
  112. Vgl. die Liste der unterzeichnenden Institutionen.
  113. Siehe dazu auch http://opendefinition.org/.
  114. Analog zum Begriff Greenwashing kann dieser Prozess als ‚Openwashing‘ bezeichnet werden.
  115. Siehe https://doaj.org/about und https://doaj.org/publishers.
  116. Arbeitsgruppe Open Access der Schwerpunktinitiative Digitale Information der Allianz der deutschen Wissenschaftsorganisationen (Hrsg.): (2012), Open-Access-Strategien für wissenschaftliche Einrichtungen. Bausteine und Beispiele. http://doi.org/10.2312/allianzoa.005.
  117. Solche Angebote existieren zum Beispiel für Zeitschriften auf der Basis von Open Journal Systems oder auch für Repositorien.
  118. Budapester Open Access Initiative BOAI10 Recommendations. Zuletzt abgerufen am 13.03.2014.
  119. Bundesdatenschutzgesetz, § 3, http://www.gesetze-im-internet.de/bdsg_1990/__3.html
  120. Bürgerliches Gesetzbuch, http://www.gesetze-im-internet.de/bgb/
  121. Organisation for Economic Co-operation and Development. (2007). OECD Principles and Guidelines for Access to Research Data from Public Funding. Retrieved from http://www.oecd.org/dataoecd/9/61/38500813.pdf
  122. Pampel, Heinz; Bertelmann, Roland (2011). „Data Policies“ im Spannungsfeld zwischen Empfehlung und Verpflichtung. In S. Büttner, H.-C. Hobohm, & L. Müller (Eds.), Handbuch Forschungsdatenmanagement (pp. 49–61). Bad Honnef: Bock + Herchen. urn:nbn:de:kobv:525-opus-2287
  123. NIH (2003). Final NIH Statement on Sharing Research Data. http://grants.nih.gov/grants/guide/notice-files/NOT-OD-03-032.html
  124. Leitfaden für die Antragstellung. DFG-Vordruck 54.01 – 04/14. http://www.dfg.de/formulare/54_01/
  125. http://www.dfg.de/foerderung/antragstellung_begutachtung_entscheidung/antragstellende/antragstellung/sicherung_forschungsdaten/ Zugriff: 30.04.2014
  126. Europäische Kommission (2014): Guidelines on Data Management in Horizon 2020. http://ec.europa.eu/research/participants/data/ref/h2020/grants_manual/hi/oa_pilot/h2020-hi-oa-data-mgt_en.pdf
  127. PLOS (2013): Data Access for the Open Access Literature: PLOS’s Data Policy. http://www.plos.org/data-access-for-the-open-access-literature-ploss-data-policy/
  128. Nature (2013). Availability of data and materials. http://www.nature.com/authors/policies/availability.html
  129. PLOS (2013): Data Access for the Open Access Literature: PLOS’s Data Policy. http://www.plos.org/data-access-for-the-open-access-literature-ploss-data-policy/
  130. Ludwig, Jens; Enke, Harry (Eds.). (2013). Leitfaden zum Forschungsdaten-Management. Handreichungen aus dem WissGrid-Projekt. Glückstadt: Verlag Werner Hülsbusch. Retrieved from http://www.wissgrid.de/publikationen/Leitfaden_Data-Management-WissGrid.pdf
  131. 131,0 131,1 Pampel H. et al. (2013) Making Research Data Repositories Visible: The re3data.org Registry. PLoS ONE 8(11): e78080 doi:10.1371/journal.pone.0078080 Referenzfehler: Ungültiges <ref>-Tag. Der Name „:0“ wurde mehrere Male mit einem unterschiedlichen Inhalt definiert.
  132. Weitere Informationen zu in den in diesem Kapitel angesprochenen Themen finden sich in der Broschüre: Julia Wilson: PEER REVIEW. The Nuts and Bolts: A Guide for Early Career Researchers. London 2012 (http://www.senseaboutscience.org/data/files/resources/99/Peer-review_The-nuts-and-bolts.pdf).
  133. Vgl. Elizabeth Wager: Ethics: What is it for? Analysing the purpose of peer review. In: Nature. DOI: 10.1038/nature04990, abgerufen am 18. September 2014.
  134. Vgl. Phil Davis: Cascading Peer-Review – The Future of Open Access? (http://scholarlykitchen.sspnet.org/2010/10/12/cascading-peer-review-future-of-open-access/) In: The Scholarly Kitchen, 12.Oktober 2013, abgerufen am 18. September 2014.
  135. Vgl. Drugmonkey: Why cascading manuscript acceptance schemes can't work. (http://scientopia.org/blogs/drugmonkey/2013/03/06/why-cascading-manuscript-acceptance-schemes-cant-work/), In: Scientopia, 06. März 2013, abgerufen am 29.09.2014.
  136. Vgl. Kent Anderson: Your Question of the Day – What is „Peer Review“? (http://scholarlykitchen.sspnet.org/2014/07/24/your-question-for-the-day-what-is-peer-review/) In: The ScholarlyKitchen, 24.Juli 2014, abgerufen am 18. September 2014.
  137. Siehe hierzu die Initiative CrossCheck (http://www.crossref.org/crosscheck/index.html) in der zahlreiche Verlage organisiert sind. Hier wird aus den Archiven der Verlage ein Artikelpool gebildet. Eingereichte Manuskripte werden anhand des Pools überprüft, um so Plagiate und Mehrfacheinreichungen zu verhindern.
  138. Einen knappen Überblick bietet Stevan Harnad: Crowd-Sourced Peer Review: Substitute or supplement for the current outdated system? (http://blogs.lse.ac.uk/impactofsocialsciences/2014/08/21/crowd-sourced-peer-review-substitute-or-supplement/) In: LSE - The Impact of Science Blog, 21. August.2014, abgerufen am 18. September 2014.
  139. Siehe hierzu beispielsweise die Reader Comments-Funktion bei PLOS.
  140. Siehe hierzu zum Beispiel: Kevin L. Smith: Just the Tip of the Iceberg - Peer to Peer Review (http://lj.libraryjournal.com/2014/03/industry-news/just-the-tip-of-the-iceberg-peer-to-peer-review/) In: Library Journal, 13. März 2014, abgerufen am 18. September 2014.
  141. Vgl. Kent Anderson (2014).
  142. Siehe hierzu den Bericht von John Bohannon, der unter dem Psyeudonym Ocorrafoo Cobange bei zahlreichen Zeitschriften ein mit methodischen Fehlern gespicktes Manuskript eingereicht hat und dieses in mehr als 50% der Fälle zur Publikation angenommen wurde. John Bohannon: Who’s Afraid of Peer Review. In: Science 2014/Vol. 342, No. 6154, S. 60-65.
  143. Vgl. Kevin L. Smith (2014).
  144. Vgl. Kent Anderson (2014).
  145. Vgl. Jason Priem, Dario Taraborelli, Paul Growth, Cameron Neylon: altmetrics – a manifesto: http://altmetrics.org/manifesto/, 28. September 2011, abgerufen am 18. September 2014.
  146. Muller, Treion, Murdoch, Matthew, The webinar manifesto (2013), New York, RosettaBooks, ISBN: 978-0-7953-3357-6*e-book
  147. Ein bekannter Dienst für die URL-Verkürzung ist bit.ly.
  148. Mounier, Pierre (2013) Die Werkstatt öffnen: Geschichtsschreibung in Blogs und Sozialen Medien. In: Haber, Peter; Pfanzelter, Eva (Hg.), Historyblogosphere. Bloggen in den Geschichtswissenschaften, München, Oldenbourg, S. 51-60, http://www.degruyter.com/view/books/9783486755732/9783486755732.51/9783486755732.51.xml
  149. Vgl. Graf, Klaus, König, Mareike (2012) Forschungsnotizbücher im Netz: Weblogs in der deutschsprachigen Geschichtswissenschaft. In: WerkstattGeschichte 61, S. 76–87, hier S. 79-81, PDF: http://werkstattgeschichte.de/werkstatt_site/archiv/WG61_076-087_GRAF_NETZ.pdf.
  150. Vgl. Scherz, Sabine (2013) "Warum sollte ich als Wissenschaftler/in bloggen?" In: Redaktionsblog. Zuletzt aufgerufen 13.03.2014.
  151. Kommentar von Achim Landwehr zum Beitrag von Valentin Groebner (2014) Heißes Zeug, kühle Speicher, graue Literatur. In: Public History Weekly.
  152. Vgl. die Unterscheidung bei: Bader, Anita; Fritz, Gerd; Gloning, Thomas (2012) DigitaleWissenschaftskommunikation 2010–2011. Eine Online Befragung,Gießener Elektronische Bibliothek [geb.uni-giessen.de/geb/volltexte/2012/8539/].
  153. Vgl. Scherz, Sabine (28.5.2013) "Wie finde ich Themen für mein Wissenschaftsblog?" In: Redaktionsblog.
  154. Vgl. Lugger, Beatrice (28.11.2013) "Worüber Wissenschaftler bloggen". In: Quantensprung.
  155. Scherz, Sabine (05.06.2013) "Texte für das Wissenschaftsblog schreiben, wie?" In: Redaktionsblog.
  156. Vgl. Scalzi, John (18.09.2012) "How to be a good commenter". In: Whatever.
  157. Vgl. Bönisch, Wenke (01.10.2013). "Social Media Monitoring für Wissenschaftler/innen". In: [http://digigw.hypotheses.org/205 Digitale Geschichtswissenschaft].
  158. Vgl. Smith, Kevin (15.11.2011). "The unexpected reader". In: [blogs.library.duke.edu/scholcomm/2011/11/15/the-unexpected-reader/ Scholarly Communication @ Dukes]
  159. Vgl. Dacos, Marin (23.07.2009). "La conversation silencieuse". In: [blog.homo-numericus.net/article191.html Homo Numericus].
  160. Scheloske, Marc (13.03.2012). "Wege aus der Nische: Was man von erfolgreichen Wissenschaftsblogs lernen kann". Anmerkungen zur Tagung »Weblogs in den Geisteswissenschaften«. In: Wissenswerkstatt.
  161. Vgl. Graf, Klaus (02.11.2013). "Warum die freie Lizenz Creative Commons Attribution (CC-BY) für Wissenschaftsblogs wichtig ist". In: Redaktionsblog.
  162. Nentwich et al. 2009: http://epub.oeaw.ac.at/ita/ita-projektberichte/d2-2a52-4.pdf
  163. Vgl. z.B. Mareike König: Twitter in der Lehre (Schule und Universität): eine kleine Literaturliste, in: Redaktionsblog, 13.08.2012, http://redaktionsblog.hypotheses.org/585.</span>
  164. Vgl. Michael Nentwich, René König: Cyberscience 2.0. Research in the Age of Digital Social Networks, Frankfurt 2012, S. 60.
  165. Eine Übersicht über Twitteraccounts, die historische Events nachtwittern, findet sich hier: http://schmalenstroer.net/wiki/index.php/Live-Tweeting_von_Historischen_Ereignissen.
  166. Vgl. Das Erste Mal in 140 Zeichen – 150 interessante Twitter Accounts und ihre ersten Tweets, in: Ragazzi Group, Mai 2012, http://ragazzi-group.de/2012/05/twitter-erste-tweets/.
  167. Mareike König, Twitter in der Wissenschaft: Ein Leitfaden für Historiker/innen, in: Digital Humanities am DHIP, 21.08.2012 http://dhdhi.hypotheses.org/1072.
  168. Melissa Terras, Is blogging and tweeting about research papers worth it? The Verdict, in: Melissa Terras, 3.4.2012, http://melissaterras.blogspot.fr/2012/04/is-blogging-and-tweeting-about-research.html.
  169. Vgl. König, René, Nentwich, Michael: Cyberscience 2.0: Research in the Age of Digital Social Networks, Frankfurt am Main: Campus-Verlag, 2012, S. 53.
  170. Vgl. Beatrice Lugger, Deutsche Wissenschaft auf Twitter II, in: Quantensprung, 9. Januar 2012, http://www.scilogs.de/quantensprung/deutsche-wissenschaft-auf-twitter-ii/.
  171. Vgl. Mareike König, Twitter in der Wissenschaft: Ein Leitfaden für Historiker/innen, in: Digital Humanities am DHIP, 21.08.2012 http://dhdhi.hypotheses.org/1072.
  172. http://topsy.com/
  173. Kuttently http://www.kurrently.com/.
  174. Puschmann und Burgess 2013, http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2206225
  175. Mareike König, Twittern in den Wissenschaften, in: Ute Frietsch (Hg.), Praktiken, Räume, Stil. Ein praxeologisches Handwörterbuch der Historischen Kulturwissenschaften, Mainz 2013, S. 405–410, hier S. 405.
  176. Vg. Katrin Weller, Evelyn Dröge, Cornelius Puschmann: »Citation Analysis in Twitter: Approaches for Defining and Measuring Information Flows within Tweets during Scientific Conferences«, Paper presented at the #MSM2001,1st Workshop on Making Sense of Microposts, 30.5.2011, Heraklion, [URL: http://files.ynada.com/papers/msm2011.pdf].
  177. Tutorial zum Twitterarchiv, https://blog.twitter.com/2012/your-twitter-archive.
  178. All my Tweets, http://www.allmytweets.net/connect.php.
  179. http://keithmcarthur.ca/2009/02/06/lifecasting-vs-mindcasting-on-twitter/
  180. Mareike König, Twitter in den Wissenschaften, in: Ute Frietsch, Jörg Rogge (Hg.), Über die Praxis des kulturwissenschaftlichen Arbeitens. Ein Handwörterbuch, Bielefeld 2013, S. 405-410, hier S. 408.
  181. http://mashe.hawksey.info/2013/02/twitter-archive-tagsv5/
  182. Vgl. Wenke Bönisch, Social Media Monitoring für Wissenschaftler/innen, in: Digitale Geschichtswissenschaft, 1.10.2013, http://digigw.hypotheses.org/205.
  183. Thelwall, M., & Kousha, K. (2014). Academia. edu: Social Network or Academic Network?. Journal of the Association for Information Science and Technology, 65(4), 721-731. http://dx.doi.org/10.1002/asi.23038
  184. König, M. (2012): Twitter in der Wissenschaft: Ein Leitfaden für Historiker/innen. http://dhdhi.hypotheses.org/1072
  185. Bik, H. M., & Goldstein, M. C. (2013). An introduction to social media for scientists. PLoS biology, 11(4), e1001535. http://dx.doi.org/10.1371/journal.pbio.1001535
  186. Roth, P. (2013). Infografik: Facebook 2013–Nutzerzahlen & Fakten. URL: http://allfacebook.de/nutzerzahlen, Abruf am, 21.09.2014.
  187. Thelwall, M., & Kousha, K. (2014). Academia. edu: Social Network or Academic Network?. Journal of the Association for Information Science and Technology, 65(4), 721-731. http://dx.doi.org/10.1002/asi.23038
  188. Bik, H. M., & Goldstein, M. C. (2013). An introduction to social media for scientists. PLoS biology, 11(4), e1001535. http://dx.doi.org/10.1371/journal.pbio.1001535
  189. De Villiers, M. R. (2010). Academic use of a group on Facebook: Initial findings and perceptions. http://hdl.handle.net/10500/13225
  190. Bik, H. M., & Goldstein, M. C. (2013). An introduction to social media for scientists. PLoS biology, 11(4), e1001535. http://dx.doi.org/10.1371/journal.pbio.1001535
  191. Liu, Y., Gummadi, K. P., Krishnamurthy, B., & Mislove, A. (2011). Analyzing facebook privacy settings: user expectations vs. reality. In Proceedings of the 2011 ACM SIGCOMM conference on Internet measurement conference (pp. 61-70). ACM http://dx.doi.org/10.1145/2068816.2068823
  192. Herwig, J., Kittenberger, A., Nentwich, M., & Schmirmund, J. (2009). Microblogging und die Wissenschaft. Das Beispiel Twitter–Steckbrief IV im Rahmen des Projekts Interactive Science. http://dx.doi.org/10.1553/ITA-d2-2a52-4
  193. Alhoori, H., & Furuta, R. (2014). Do Altmetrics Follow the Crowd or Does the Crowd Follow Altmetrics?.
  194. Weller, K., Dröge, E., & Puschmann, C. (2011). Citation Analysis in Twitter: Approaches for Defining and Measuring Information Flows within Tweets during Scientific Conferences. In # MSM (pp. 1-12). http://ceur-ws.org/Vol-718/paper_04.pdf
  195. Bik, H. M., & Goldstein, M. C. (2013). An introduction to social media for scientists. PLoS biology, 11(4), e1001535. http://dx.doi.org/10.1371/journal.pbio.1001535
  196. Weller, K., Dröge, E., & Puschmann, C. (2011). Citation Analysis in Twitter: Approaches for Defining and Measuring Information Flows within Tweets during Scientific Conferences. In # MSM (pp. 1-12). http://ceur-ws.org/Vol-718/paper_04.pdf
  197. Renken, A., Hartwich, B., Sawo, C., & Stalph, F. (2013). Twitter als Ausprägung der Second Screen Nutzung. http://www.medienalltag.org/files/2014/03/second-screen.pdf
  198. Kelly, B. and Delasalle, J., 2012. Can LinkedIn and Academia.edu Enhance Access to Open Repositories? In: OR2012: the 7th International Conference on Open Repositories, 2012-07-09 - 2012-07-13, Edinburgh, Scotland.
  199. Alhoori, H., & Furuta, R. (2014). Do Altmetrics Follow the Crowd or Does the Crowd Follow Altmetrics?.
  200. Henderson, J. (2012). Google Plus: A Tool for Academic Collaboration. In T. Amiel & B. Wilson (Eds.), Proceedings of World Conference on Educational Multimedia, Hypermedia and Telecommunications 2012 (pp. 905-911). Chesapeake, VA: AACE.
  201. De Waal, M. (2011). ResearchGATE: Revolutionising Social Networking for Scientists. Daily Maverick. Online: http://www.dailymaverick.co.za/article/2011-01-11-researchgate-revolutionising-social-networking-for-scientists/
  202. Goportis (2014). Die vier Social Media-Typen in der Wissenschaft. Ergebnisse einer bundesweiten Studie. Online: http://www.goportis.de/fileadmin/downloads/aktuelles/Bericht_escience_2_0_Hochschulsample_Download.pdf.
  203. Pscheida, D., Albrecht S., Herbst, S., Minet, C. & Köhler, T. (2014). Nutzung von Social Media und onlinebasierten Anwendungen in der Wissenschaft. Erste Ergebnisse des Science 2.0-Survey 2013 des Leibniz-Forschungsverbundes „Science 2.0“, Dresden. Online: http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-132962.
  204. Holmberg, K., & Thelwall, M. (2013). Disciplinary differences in Twitter scholarly communication. In Proceedings of the 14th International Society of Scientometrics and Informetrics Conference, Vienna, Austria, Vol. 1 (pp. 567-582).
  205. Mohammadi, E. & Thelwall, M. (2013). Assessing the Mendeley readership of social sciences and humanities research. In Proceedings of the 14th International Society of Scientometrics and Informetrics Conference, Vienna, Austria, Vol. 1 (pp. 200-2014).
  206. Priem, J., Taraborelli, D., Groth, P., & Neylon, C. (2010). Altmetrics: a manifesto. Online: http://altmetrics.org/manifesto/.
  207. Van Noorden, R. (2014). Scientists and the Social network. Nature, 512, 126-129. doi:http://dx.doi.org/10.1038/512126a
  208. Eysenbach, G. (2006). Citation advantage of open access articles. PLoS Biol, 4:e157. http://dx.doi.org/10.1371/journal.pbio.0040157
  209. Lawrence, S. (2001). Free online availability substantially increases a paper's impact. Nature, 411(6837), 521
  210. Piwowar, H. A., Day, R. S., & Fridsma, D. B. (2007). Sharing detailed research data is associated with increased citation rate. PLoS ONE, 2(3): e308. http://dx.doi.org/10.1371/journal.pone.0000308
  211. Eysenbach, G. (2011). Can Tweets Predict Citations? Metrics of Social Impact Based on Twitter and Correlation with Traditional Metrics of Scientific Impact. Journal of Medical Internet Research, 13(4):e123
  212. Haustein, S., Bowman, T. D., Holmberg, K., Peters, I., & Larivière, V. (2014). Astrophysicists on Twitter: An in-depth analysis of tweeting and scientific publication behavior. Aslib Journal of Information Management, 66(3), 279-296. http://dx.doi.org/10.1371/journal.pone.0106086
  213. Priem, J., Piwowar, H., & Hemminger, B. (2012). Altmetrics in the wild: Using social media to explore scholarly impact. Online: http://arxiv.org/abs/1203.4745.
  214. Nentwich, M., & König, R. (2014). Academia goes Facebook? The Potential of Social Network Sites in the Scholarly Realm. In S. Bartling & S. Friesike, Opening Science (pp. 107-124), Berlin: Springer.
  215. Haustein, S., Peters, I., Sugimoto, C. R., Thelwall, M., & Larivière, V. (2014). Tweeting Biomedicine: An Analysis of Tweets and Citations in the Biomedical Literature. Journal of the American Society for Information Science and Technology, 65(4), 656-669.
  216. Ridings, C., Gefen, D., & Arinze, B. (2006). Psychological barriers: Lurker and poster motivation and behavior in online communities. Communications of the Association for Information Systems, 18(1), 16.
  217. Bik, H. M., & Goldstein, M. C. (2013). An introduction to social media for scientists. PLoS biology, 11(4), e1001535. http://dx.doi.org/10.1371/journal.pbio.1001535
  218. Alhoori, H., & Furuta, R. (2014). Do Altmetrics Follow the Crowd or Does the Crowd Follow Altmetrics?.
  219. Piwowar, H., & Priem, J. (2013). The power of altmetrics on a CV. Bulletin of the American Society for Information Science and Technology, 39(4), 10-13. http://dx.doi.org/10.1002/bult.2013.1720390405
  220. Haustein, S., Peters, I., Sugimoto, C. R., Thelwall, M., & Larivière, V. (2014). Tweeting biomedicine: An analysis of tweets and citations in the biomedical literature. Journal of the Association for Information Science and Technology, 65(4), 656-669.
  221. Haustein, S., Bowman, T. D., Holmberg, K., Peters, I., & Larivière, V. (2014). Astrophysicists on Twitter: An in-depth analysis of tweeting and scientific publication behavior. Aslib Journal of Information Management, 66(3), 279-296. http://dx.doi.org/10.1371/journal.pone.0106086
  222. Bik, H. M., & Goldstein, M. C. (2013). An introduction to social media for scientists. PLoS biology, 11(4), e1001535. http://dx.doi.org/10.1371/journal.pbio.1001535
  223. http://www.dnb.de/DE/Standardisierung/GND/gnd_node.html
  224. Personal Branding ist als Begriff seit den 1990er Jahren anzutreffen und bezeichnet den Vorgang, dass jemand sich selbst als Marke sieht und die eigene Sichtbarkeit und Wiedererkennbarkt verbessern will. Weitere Informationen zum Thema finden sich zum Beispiel bei Chritton, Susan L.: Personal branding for dummies. Hoboken, NJ, Wiley 2012 (E-Book). ISBN 978-1-118-11792-7, und Deckers, erik: Lacy, Kyle: Branding Yourself: How to Use Social Media to Invent or Reinvent Yourself. Que 2012. Web ISBN-13 978-0-13-305684-6.
  225. Eine ausführliche, wenn auch etwas veraltete Übersicht über verschiedene Registrierungssysteme findet sich hier: https://repinf.pbworks.com/w/page/13779410/Author%20identification
  226. Stand: September 2014
  227. Eine Liste der Mitgliedseinrichtungen findet sich hier: http://orcid.org/organizations/integrators/integration-chart, u.a. mit Thomson Reuters, Taylor & Francis, Springer, Elsevier, Oxford University Press, IEEE, MIT, University of Cambridge und zahlreichen weiteren Verlagshäusern und Universitäten
  228. Vergleiche die ausführliche Darstellung zu akademischen Netzwerken in diesem Handbuch
  229. Mehr Informationen zur ResearcherID hier http://wokinfo.com/researcherid/
  230. Weitere Informationen zum Scopus Author Identifier: http://help.scopus.com/Content/h_autsrch_intro.htm.
  231. http://help.scopus.com/Content/h_authorfeedback.htm
  232. Zugang zum Formular und weitere Informationen unter http://help.scopus.com/Content/h_authorfeedback.htm
  233. Stand April 2014: Ca. 40.000 registrierte Autor/innen, s. https://authors.repec.org/
  234. http://scholar.google.com/. Das Formular zum Einrichten eines Profils findet man auf der deutschsprachigen Seite von Google Scholar unter „Meine Zitate“, auf der englischsprachigen Seite unter „My Citations“
  235. Wie verlässlich die ausgewerteten Informationen sind, lässt sich nicht nachvollziehen. Google selbst weist in den Hilfetexten auf mögliche Ungenauigkeiten aufgrund der automatischen Auswertung hin („Datumsangaben und Zitierhäufigkeiten werden automatisch von einem Computerprogramm ermittelt und stellen Schätzwerte dar“)
  236. http://scholar.google.de/intl/en/scholar/inclusion.html#overview
  237. Siehe hierzu auch das Kapitel zu Peer Review in diesem Handbuch.
  238. Frank Havemann: Einführung in die Bibliometrie. Gesellschaft für Wissenschaftsforschung, Berlin 2009. Insbesondere Kapitel 5 Bibliometrische Indikatoren, S. 47-54 (http://www.wissenschaftsforschung.de/Havemann2009Bibliometrie.pdf).
  239. Eine Übersicht findet sich in S. Bonzi, H.W. Snyder: Motivations for Citations – A Comparison of Self-Citation and Citation to others. In: Scientometrics 1991/Vol. 21, No. 2, p. 245-254.
  240. Zitationszahlen lassen sich entsprechend auch auf Institutionen und Länder aggregieren.
  241. https://apps.webofknowledge.com/
  242. http://www.scopus.com/home.url
  243. http://scholar.google.de/
  244. Vgl. Péter Jacsó: Google Scholar: the pros and the cons. In: Online Information Review 2009/ Vol. 29, No. 2, p. 208-214.
  245. http://citeseerx.ist.psu.edu/
  246. So wertet das Web of Science beispielsweise nur Zitationen von Artikeln aus Zeitschriften aus, die auch vom Web of Science erfasst werden. Zitationen von Artikeln aus Zeitschriften, die im Web of Science nicht vertreten sind, bleiben damit unberücksichtigt.
  247. Beim Web of Science sind diese in separaten Kollektionen erfasst.
  248. Beispielsweise die Kategorisierung in A-, B- und C-Journals in den Wirtschaftswissenschaften, siehe: Alexander von Humboldt-Stiftung (Hrsg.): Publikationsverhalten in unterschiedlichen wissenschaftlichen Disziplinen. Beiträge zur Beurteilung von Forschungsleistungen. Zweite erweiterte Auflage 12/2009 (http://www.humboldt-foundation.de/pls/web/docs/F13905/12_disk_papier_publikationsverhalten2_kompr.pdf).
  249. The Thomson Reuters Impact Factor (http://wokinfo.com/essays/impact-factor/), abgerufen am 19. September 2014.
  250. Faktisch haben Zähler und Nenner hier nicht die gleiche Datengrundlage.
  251. J.E. Hirsch: An index to quantify an individual’s scientific research output. In: PNAS, 2005/ Vol. 102, No.46, p. 16569–16572.
  252. Ein h-Index von 7 bedeutet, dass ein Autor/eine Arbeitsgruppe/eine Institution mindestens 7 Artikel hat die mindestens 7mal zitiert wurden.
  253. http://www.journalmetrics.com/, abgerufen am 19. September 2014.
  254. Gemeint ist das innerhalb der jeweiligen Datenbank (hier: Scopus) gemessene Prestige. Prestige meint hier, wie häufig diese Zeitschriften wiederum von anderen Zeitschriften zitiert werden.
  255. Siehe dazu die Erläuterungen zum Mean Normalized Citation Score (MNCS) im Leiden-Ranking (http://www.leidenranking.com/methodology/indicators), abgerufen am 19. September 2014 .
  256. Vgl. Werner Marx, Lutz Bornmann: Perzentile zur Messung von Publikationsleistungen: wie gut ist Forschung wirklich? In: BIOspektrum 2013/Vol. 19, No. 3, p. 332-334.
  257. Sie hierzu die San Francisco Declaration on Research Assessment (http://www.ascb.org/dora-old/files/SFDeclarationFINAL.pdf), abgerufen am 19.September 2014.
  258. Vgl. Jason Priem, Dario Taraborelli, Paul Growth, Cameron Neylon: altmetrics – a manifesto: (http://altmetrics.org/manifesto/)], 28. September 2011, abgerufen am 18. September 2014.
  259. Siehe hierzu z.B. das NISO Alternative Assessment Metrics (Altmetrics) Project der National Information Standards Organization (NISO) (http://www.niso.org/topics/tl/altmetrics_initiative/), abgerufen am 19. September 2014.
  260. Vgl. Jason Priem, Dario Taraborelli, Paul Growth, Cameron Neylon (2011).
  261. Vgl. Jason Priem, Dario Taraborelli, Paul Growth, Cameron Neylon (2011).
  262. Vgl. Jason Priem, Dario Taraborelli, Paul Growth, Cameron Neylon (2011).
  263. http://www.altmetric.com/aboutexplorer.php
  264. https://impactstory.org/
  265. http://www.plumanalytics.com/
  266. http://lexiurl.wlv.ac.uk/
  267. Als Beispiel soll hier PLOS One genannt werden (http://www.plosone.org/static/almInfo).
  268. </ol>