DH-Handbuch/DH in der Praxis

Aus Handbuch.io

< DH-Handbuch

Version vom 19. August 2015, 14:12 Uhr von Mneuschaefer (Diskussion | Beiträge) (Andrea Rapp: TextGrid - ein Virtueller Forschungsverbund)


<<<Zurück
Einführung
Inhaltsverzeichnis Weiter>>>
Wie organisiert man Forschungsdaten

Wie verlaufen DH-Projekte? Einblicke in die Praxis

Um einen Einblick in die tagtägliche Arbeit von WissenschaftlerInnen in den Digital Humanities zu bekommen, haben wir einige WissenschaftlerInnen gebeten, ihr DH-Projekt vorzustellen und ihrer digitalen Methoden und erzielte Ergebnisse näher zu beleuchten.

Anne Baillot: Berliner Intellektuelle 1800-1830

Anne Baillot ist Literaturwissenschaftlerin und leitet seit 2010 am Institut für deutsche Literatur der Humboldt-Universität zu Berlin eine Emmy Noether-Nachwuchsgruppe zum Thema "Berliner Intellektuelle 1800-1830". Sie koordiniert den Einstein-Zirkel Digital Humanities.

Briefe und Texte aus dem intellektuellen Berlin um 1800: http://tei.ibi.hu-berlin.de/berliner-intellektuelle/

Wie ist die Idee zu dem Projekt entstanden?

Anne Baillot: Das Projekt "Berliner Intellektuelle 1800-1830" schloss direkt an meine Dissertation an. In meiner Dissertation habe ich die Frage nach der Konstitution von Intellektuellennetzwerken im Kontext der napoleonischen Kriege an einem Einzelbeispiel untersucht und wollte die Analyse ausdehnen, um ein strukturelles Verständnis dieser Netzwerke zu gewinnen und dieses in der Lektüre der produzierten (literarischen, geisteswissenschaftlichen) Texte umzusetzen. Der Skalawechsel vom Einzelfall zur Gesamtstruktur war eine Grundvoraussetzung des Projektes.

Was war die Fragestellung zu dem Projekt?

Anne Baillot: Im Mittelpunkt des Projektes steht die Frage nach Form und Bedeutung der Teilnahme von Gelehrten am öffentlichen Leben mit besonderer Berücksichtigung ihrer Kommunikationsstrategien und der damit einhergehenden politischen Stellungnahmen. Untersucht werden die Berliner Intellektuellennetzwerke zwischen 1800 und 1830 als Orte des Kultur- und Wissenstransfers. 

Warum wurden digitale Methoden gewählt?

Anne Baillot: Die Grundidee bestand darin, mehrere Textkorpora (die jeweils einen der einschlägigen thematischen Schwerpunkte der Fragestellung illustrierten) anhand eines gemeinsamen Rasters zu erfassen. Dies war viel ökonomischer und auf einer viel größeren Skala durch digitale Mittel zu bewerkstelligen. So entstand die digitale Edition "Briefe und Texte aus dem intellektuellen Berlin um 1800" (http://tei.ibi.hu-berlin.de/berliner-intellektuelle/ -NB: Der Techniker macht diese Tage größere Updates, es kann sein, dass die Edition mal nicht geht)

Wie wurden die Daten erhoben?

Anne Baillot: Die Handschriften wurden nach ihrer Relevanz für die Fragestellung ausgesucht. Die Transkription und Annotation erfolgte komplett händisch, ausser für die biographischen Datensätze, die im Rahmen des Boeckh-Nachlassprojektes (http://tei.ibi.hu-berlin.de/boeckh/ ) über die GND-Nummern von kalliope (http://kalliope.staatsbibliothek-berlin.de/de/index.html) direkt importiert wurden.

Welche Tools haben Sie ausgewählt und warum?

Anne Baillot: Die genaue Struktur der Datenbank kenne ich nicht. Am Ende der Literaturwissenchaftler wird in XML/TEI gearbeitet, mit Oxygen. Die Einarbeitung verlief in oxygen sehr gut. Textgrid wurde zu Projektbeginn einstimmig verworfen, da zu unstabil. In oxygen ist ein SVN-Client eingebaut, der die kollaborative Anreicherung der Daten möglich macht.

Wie verlief die Analyse?

Anne Baillot: Die Analyse erfolgte soweit primär analog. In Zusammenarbeit mit Machine Learning-Spezialisten der Technischen Universität arbeite ich derzeit an einer großformatigeren Auswertung bestimmter Textphänomenen, die von uns annotiert wurden. Darüber hinaus hoffe ich, Netzwerkanalyse anschliessen zu können, wobei dies aus meiner Sicht nur in Zusammenarbeit mit Informatikern erfolgen kann (und es hoffentlich wird).

Wie wurden die Ergebnisse publiziert?

Anne Baillot: Digitale Edition, Nachlassverzeichnis, Blog, Sammelbände, Aufsätze wurden bereits veröffentlicht. Darüber hinaus sind 3 Dissertationen in der Abschlussphase.

Weitere Links:

http://digitalintellectuals.hypotheses.org/

http://www.literaturkritik.de/public/rezension.php?rez_id=19678&ausgabe=201409

Daniel Burckhardt: Verbrannte und Verbannte

Daniel Burckhardt ist Mathematiker und Wissenschaftshistoriker an der Humboldt-Universität zu Berlin. Zusammen mit einem ad-hoc Team von 9 Personen setzte er 2014 das Projekt "Verbannte und Verbrannte" um, eine Webseite zur Liste der im Nationalsozialismus verbotenen Publikationen und Autoren.

Visualisierung von Lebenswegen auf der Seite "Verbrannte und Verbannte": http://verbrannte-und-verbannte.de/

Wie ist die Idee zu dem Projekt entstanden?

Daniel Burckhardt: Das Projekt entstand im Rahmen von {COD1NG DA V1NC1}, dem ersten „Kultur-Hackathon“ in Berlin, der zwischen dem 26./27. April und dem 5./6. Juli 2014 stattfand.

Was war die Fragestellung zu dem Projekt?

Daniel Burckhardt: Das Projekt startete weniger mit einer Fragestellung als mit einem Datensatz, der vom Land Berlin als offene Daten veröffentlichte Liste der verbannten Bücher. Dieser Basisdatensatz wurde in einem zweiten Schritt systematisch mit Normdaten ergänzt. Ziel war einerseits eine bessere Nutzerführung, andererseits boten die inhaltlich ergänzten Daten die Basis für Visualisierungen und statistische Auswertungen.

Warum wurden digitale Methoden gewählt?

Daniel Burckhardt: Eine manuelle Bearbeitung der rund 5'000 bibliografischen Einträge sowie fast 2'000 Personendatensätze wäre im kurzen Zeitraum von gut 2 Monaten nicht zu leisten gewesen.

Wie wurden die Daten erhoben?

Daniel Burckhardt: Der Basisdatensatz wurde vom Land Berlin zur Verfügung gestellt. Diese Daten wurden mit den Katalogdaten der Deutschen Nationalbibliothek im RDF-Format abgeglichen. Da die Verfasserinnen, Herausgeber und Verlage im Katalog mit GND-Nummern markiert sind, konnten automatisiert Zusatzinformationen aus weiteren Linked-Open-Data-Diensten (Entity Facts, Wikidata) abgerufen werden.

Welche Tools haben Sie ausgewählt und warum?

Daniel Burckhardt: OpenRefine zum Bereinigen der Daten, Programmcode in Java und PHP (https://github.com/jlewis91/codingdavinci, https://github.com/mhinters/BannedBookUtils), JavaScript-Bibliotheken (Leaflet.js, D3.js) zur Präsentation.

Wie verlief die Analyse?

Daniel Burckhardt: Im wesentlichen wurden die Daten über SQL-Abfragen nach verschiedenen Kriterien gruppiert und dann auf Karten oder als Diagramme visualisiert.

Wie wurden die Ergebnisse publiziert?

Daniel Burckhardt: Bislang nur über die Website. Eine fachwissenschaftliche Analyse der Ergebnisse steht noch aus.

Weitere Informationen

Verbrannte und Verbannte. Die Liste der im Nationalsozialismus verbotenen Publikationen und Autoren: http://verbrannte-und-verbannte.de/about

Thomas Kollatz: Relationen im Raum visualisieren mit dem Topographie-Visualisierer

Thomas Kollatz ist wissenschaftlicher Mitarbeiter am Steinheim-Institut für deutsch-jüdische Geschichte in Essen. Seit 2002 entwickelt und betreut er epidat, die epigraphische Datenbank zu historischen jüdischen Friedhöfen.

Wie ist die Idee entstanden?

Topographie Visualisierer

Thomas Kollatz: Die Idee zum Projekt "Relationen im Raum – Visualisierung topographischer Klein(st)strukturen" ist aus unserer jahrelangen epigraphischen Arbeit an historischen jüdischen Friedhöfen entstanden. In den letzen Jahren wurde ein umfangreicher Inschriftenbestand auch digital erfasst. Zudem hatten wir zu einigen Korpora schematische Lagepläne. Die Projektidee war die Fülle an zu einem Objekt gesammelten Einzelinformation in einem zweiten Schritt wieder auf die Fläche zu bringen, das Einzelobjekt (Grabmal) also in Relation zum räumlichen Ensemble (Friedhof) zu setzen, um auf diese Weise möglicherweise Muster und Relationen zwischen den Einzelobjekten in den Blick zu bekommen. Zudem wurde neben der philologisch-historischen, textorientierten Perspektive auf die Grabmale, ein Partner gefunden, der die Objekte aus anderer, bauhistorisch-kunstwissenschaftlicher Perspektive untersucht. Geplant war, einen Topographie-Visualisierer zu entwickeln, mit dem sich beliebige Phänomene gesteuert über ein Suchinterface auf dem interaktiven Lageplan darstellen und analysieren lassen.

Wie wurde das Projekt finanziert?

Thomas Kollatz: Gefördert wird das Projekt vom BMBF im Rahmen der Förderlinie eHumanities (Förderkennzeichen: 01UG1243A-C).

Mit welchen Partnern wurde das Vorhaben umgesetzt und wie waren die Rollen verteilt?

Thomas Kollatz: Projektpartner sind:

  • Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte, Essen

Das Steinheim-Institut vertritt im Verbund die epigraphisch, philologisch-historischen Fragestellungen.

  • Bau- und Stadtbaugeschichte, Fakultät 6, Institut für Architektur, TU Berlin

Die historische Bauforschung widmet sich der sachgemässen, quantitativ auswertbaren Aufnahme der äusseren Form der Objekte

  • Institut für Kultur und Ästhetik digitaler Medien, Leuphana Universität Lüneburg

Der Projektpartner ist für den Einsatz von HyperImage als zentrales Erfassungs- und Visualisierungsmedium für den Topograühie-Visualisierer zuständig.

  • DAASI International GmbH, Tübingen

DAASI verantwortet die Schnittstelle zwischen den diversen Datenquellen, bereitet die Daten der Partner auf und konvertiert sie zwecks Import in den Topographie-Visualisierer.

Was war die Fragestellung zu dem Projekt?

Thomas Kollatz: Im Vorfeld wurden eine Vielzahl von Forschungsfragen zu räumlichen Aspekten formuliert:

Raumproduktion

  • Wie verhält sich das Einzelobjekt zum lokalen, räumlichen Ensemble der Einzelobjekte und dem weiteren Umfeld? Lassen sich fachspezifische Erkenntnisse in der Raumproduktion vor Ort wiederfinden?
  • Sind unterschiedliche Beerdigungsstrategien (Cluster) erkennbar?
  • Werden separate Gruppenfelder gebildet z.B. für Wöchnerinnen, Kinder, Unverheiratete, Ehepaare, Opfer von Epidemien (Pest, Cholera), Weltkriegsgefallene, Suizide?
  • Gibt es visuelle Bezüge zwischen Familien/Ehepartnern bei chronologischer Beerdigung (identische Gestaltung der verwendeten Ornamentik und Symbolik, wurde derselbe Steinmetz beauftragt)?
  • Wie wurde der Friedhof in zeitlicher Perspektive belegt?
  • Verhältnisse bei von mehreren Gemeinden genutzten Verbandsfriedhöfen (bis zu 25 bestattende Gemeinden in Franken)?
  • Wie ist das Grabmal positioniert? Hat die Position und Ausrichtung religiöse oder repräsentative Gründe (Ausrichtung gegenüber den Himmelsrichtungen, Sichtbarkeit von bestimmten Punkten etc.)?

Makroebene

  • Lassen sich auf Makroebene (überregional, wie Herkunft der Bestatteten, Vergleichsbeispiele anderer Friedhöfe) zu gewissen Zeitpunkten Typologien durch Bauform und Material (Sandstein, Muschelkalk, dunkles Hartgestein etc.) bzw. Inschrift erkennen, die auf familiäre, soziale, religiöse und topographische Herkunft zurückzuführen sind? Sind dadurch Migrationbewegungen der jeweiligen Gesellschaft in den Objektensemblen ablesbar? (Sepharden, Aschkenasen, Herkunft aus Ost- oder Südeuropa, bestimmte Familienverbände etc.)? Ist die Form des Grabmales an den sozialen oder religiösen Status gebunden (bestimmte Grabmalformen für Rabbiner etc.)? Lässt sich ein Zusammenhang zwischen dem Wandel formaler Aspekte des Grabmales aus dem sozialen und religiösen Wandel nachweisen (Veränderung von Grabmalmoden durch Zuwanderergruppen)? Wie funktioniert die Interaktion zwischen jüdischer und nicht-jüdischer Sepulkralarchitektur?

Epigraphik

  • Sind idiomatische eulogische Formulierungen an bestimmte Positionen/Felder gebunden?
  • Erlaubt die Umgebung eines undatierten Einzelobjektes Hinweise auf dessen zeitliche Einordnung?

Bau- und Kunstgeschichte

  • Durch welche Kriterien lassen sich Grabsteintypologien abgrenzen (Bautyp und Aufbau, Form bestimmter Bauteile, Art der Fügung, Materialität etc.)? Entwicklung der Grabsteingestaltung (Grabmaltypologie): Welche Typen dominieren die Grabsteinlandschaft und welche werden nur sporadisch verwendet? Inwiefern hat das Grabmal selbst symbolische Bedeutung? Woher stammen die Vorbilder für bestimmte Grabmaltypen? Ermöglichen bestimmte Materialien spezifische formale Ausbildungen?
  • Industrie- und handwerksgeschichtlich: Woher stammen die Materialien? Welche Steinmetze waren wann, an welchen Grabfeldern und -stellen tätig? Welche Entwicklungen und Regelmäßigkeiten der Anwendungen in Bearbeitungsmethoden (z.B. geätzt, bossiert, usw.) können festgestellt werden? Handelt es sich um Handwerker oder schon Industriebetriebe? Gab es fertige Rohlinge oder handelt es sich um Einzelstücke?

Denkmalpflege

  • Welche Natursteinarten wurden wann verwendet und welche Natursteingrabmale sind daher anfälliger als andere? Verursachen bestimmte Grabmaltypen aufgrund ihrer spezifischen Fügung bestimmte Schadensmuster (mehrteilige und einteilige Grabmaltypen, Art der Verbindungen)? Bei welchen Grabmalen ist welcher Restaurierungsaufwand angemessen (Material, Bautyp, Standsicherheit)? Welche Maßnahmen (z.B. Freilegen der Steine) sind an welchen Grabmalen schädlich, an welchen förderlich?
  • Restaurierung: Wo besteht akuter Handlungsbedarf (Wichtige Frage für die in der Regel beteiligten Denkmalbehörden und die allgemeine Zugänglichkeit des Friedhofes): Können Humusschichten, Flechten, Moose zu einem konstanten Milieu beitragen, das längeren Erhalt der Sediment- und metamorphen Gesteine ermöglicht? Sind abgedeckte und am Boden liegende Grabsteine besser erhalten?
  • Welche Informationen und Zusammenhänge sind für die “museumspädagogische” Vermittlung geeignet? Wie müssen die komplexen Informationszusammenhänge für eine Site-Management-System bzw. Besucherinformationssystem aufbereitet und ausgewählt werden?

Interdisziplinär

  • Wie funktioniert das Zusammenspiel von Inschriftentext sowie Grabmalform bzw. Anordnung der Symbolik? Besteht ein Zusammenhang zur formalen Anordnung oder dem Inhalt der Inschrift? Wie lässt sich ein Zusammenhang quantitativ bzw. qualitativ nachweisen?
  • Wurden Symbole zu allen Zeiten durchgängig verwendet? In welchem Verhältnis stehen jüdische, christliche und antike Symbole und Ornamente zueinander? Beispiel: Grabsteine von Kohanim (Priesterfamilien) können visuell durch das Symbol der segnenden Hände gekennzeichnet werden. Dies muss aber nicht so sein. Häufig genügt die sprachliche – durch Namen oder idiomatische Ausdrücke ("Krone der Priesterschaft" etc.) vorgenommene Differenzierung. Visualisierung des textlichen und/oder kunstwissenschaftlichen Befundes kann zur Klärung beitragen. Zum Beispiel auch: Ab wann gilt ein sechszackiger Stern als Symbol der Religions-/​Ethnienzugehörigkeit (Davidstern) und nicht mehr als Namenssymbol (David) oder reines Schmuckelement?

Warum wurden digitale Methoden gewählt?

Mit analogen Mitteln lässt sich mit erheblichem Aufwand gewiss auch ein statischer Plan erstellen, der allerdings jeweils für genau eine Fragestellung genutzt werden kann. Für die Fülle an raumbezogenen Fragestellungen war allerdings ein digitaler, interaktiver, frei bespielbarer Lageplan erforderlich.

Wie wurden die Daten erhoben?

Thomas Kollatz: Die Daten lagen zum teil schon vor im strukturierten Format EpiDoc: TEI XML für epigraphische Daten. Allerdings war TEI XML für die feingranulare Beschreibung der Kunstwissenschaft und historischen Bauforschung, die sich der äusseren Form der Grabmale unzureichend, so dass im Rahmen des Projektes ein eigenes, prototypische XML Auszeichnungmodell für Objektformen entwickelt wurde.

Welche Tools haben Sie ausgewählt und warum? Thomas Kollatz: Für den Topographie-Visualiser haben wir die Open-Source Software HyperImage verwendet, die in den Kunstwissenschaften vielfach Verwendung findet. Im Projekt haben wir diese Software weiterentwickelt und mit Hilfe einer LDAP-Datenbank mit einem Search-Interface verbunden. Auf diese Weise kann der Lageplan beliebig je nach Fragestellung gefüllt werden.

Wie verlief die Analyse?

Thomas Kollatz: Die meisten der im Vorfeld formulierten Forschungsfragen liessen sich mit dem Topographie-Visualisierer klären. Besonders ertragreich war die interdisziplinäre Zusammenarbeit zwischen Epigraphik und Bauforschung.

Wie wurden die Ergebnisse publiziert?

Thomas Kollatz: Search-Interface und Topographie-Visualizer werden online zugänglich sein. Sämtliche Projektberichte stehen auf der Projekthomepage. Zudem ist die Veröffentlichung der Projektergebnisse in den DARIAH Working Papers geplant.

Weitere Informationen zum Projekt: https://dev2.dariah.eu/wiki/display/RIRPUB/RiR

Björn Ommer und Peter Bell: Analyse kunsthistorischer Bilddatensätze

Björn Ommer, Professor für Computer Vision der Universität Heidelberg und Direktor des Heidelberg Collaboratory for Image Processing (HCI) und Peter Bell, promovierter Kunsthistoriker und wie Ommer WIN-Kollegiat der Heidelberger Akademie der Wissenschaften, koordinieren seit 2011 gemeinsam bildwissenschaftliche Projekte an der Schnittstelle zwischen Kunstgeschichte und Computer Vision.

Passion Search Prototype of an unrestricted image search of the crucifixion: http://hci.iwr.uni-heidelberg.de/COMPVIS/projects/suchpassion/

Wie ist die Idee zu dem Projekt entstanden ?

Peter Bell: Prof. Ommer und Prof. Liselotte Saurma begannen im Rahmen der Exzellenzinitiative eine interdisziplinäre Zusammenarbeit, um die Forschungen beider Bildwissenschaften zu verknüpfen.

Was war die Fragestellung zu dem Projekt?

Peter Bell: Mittelalterliche Buchmalerei mit wiederkehrenden Motiven sollte anhand von Algorithmen erschlossen werden. In Folgeprojekten kamen Fragen zur nonverbalen Kommunikation in Bildern (Gesten, symbolische Kommunikation) und grundlegende Überlegungen zur kognitiven und semantischen Erschließung von kunst- und architekturhistorischen Datensätzen auf.

Wie wurde das Projekt finanziert?

Peter Bell: Die Projektgelder kamen aus Mitteln der Exzellenzinitiative (Frontier-Projekte), dem Juniorprofessorenprogramm des MWK BaWü und der Heidelberger Akademie der Wissenschaften (http://hci.iwr.uni-heidelberg.de//COMPVIS/projects/). Ein DFG-Projekt in Kooperation mit Prometheus ist in Planung. Eng arbeiten wir außerdem mit dem Arbeitskreis digitale Kunstgeschichte zusammen. Bei jedem Projekt ist circa ein halbes Jahr Vorlauf gewesen, viele Projekte bauen dabei aufeinander auf (nicht nur aus dem Bereich der Digital Humanities sondern auch von Seiten der informatischen Projekte).

Mit welchen Partnern wurde das Vorhaben umgesetzt und wie waren die Rollen verteilt?

Peter Bell: Im ersten Frontier Projekt war Prof. Saurma Partnerin für die Architektur gewannen wir Prof. Hesse. Seit meinem Einstieg in das Projekt 2011 lag die Konzeption und Organisation der Projekte bei Björn Ommer und mir, unterstützt wurden wir von nahezu allen DoktorandInnen der Gruppe (insb. Takami, Monroy, Arnold) und anfangs dem Postdoc J. Schlecht.

Warum wurden digitale Methoden gewählt?

Peter Bell: Die digitalen Methoden bzw. die Zusammenarbeit mit der Informatik war von Seiten der Kunstgeschichte angeraten, da die wachsenden Bilddatenbanken kaum textbasiert hinreichend erschlossen werden können. Für die Computer Vision stellten kunsthistorische Datensätze eine interessante und skalierbare Herausforderung dar.

Wie wurden die Daten erhoben?

Peter Bell: Die Daten wurden unter anderem von der Universitätsbibliothek Heidelberg zur Verfügung gestellt (Palatina-Handschriften, Sachsenspiegel, Architekturtraktate). Jüngst stellte das Prometheus Bildarchiv (Köln) mehrere tausend Kreuzigungsdarstellungen zur Verfügung, um die Performanz der Algorithmen zu testen.

Welche Tools haben Sie ausgewählt und warum?

Peter Bell: Die Computer Vision Algorithmen wurden in Matlab programmiert und teilweise zu Test- und Forschungszwecken mittels eines PHP-Webinterfaces einfach bedienbar gemacht. Aufgrund der Komplexität kunsthistorischer Bilddatensätze sollte nicht eine bestehende Lösung adaptiert werden, sondern informatische Grundlagenforschung anhand der Datensätze durchgeführt werden.

Wie verlief die Analyse?

Peter Bell: Zur Analyse wurde in fünfzehn verschiedenen Testdatensätze unterschiedliche Objekte und Regionen gesucht und einige ähnliche Bilder in aufwendigeren Analysen im Detail verglichen.

Wie wurden die Ergebnisse publiziert?

Peter Bell: Die Ergebnisse wurden in Zeitschriften und Konferenzbänden publiziert, dabei wurde Wert auf eine Publikation in beiden Fächern gelegt. Die im Projekt entwickelte Bildsuche soll außerdem im Prometheus Bildarchiv genutzt werden.

Weitere Informationen

Heidelberg Collaboratory for Image Processing. Projekte: http://hci.iwr.uni-heidelberg.de/COMPVIS/projects/

Peter Bell, Joseph Schlecht, and Björn Ommer: Nonverbal Communication in Medieval Illustrations Revisited by Computer Vision and Art History, in: Visual Resources: An International Journal of Documentation (Special Issue: Digital Art History), 29:1-2, S. 26-37, 2013.

Peter Bell and Björn Ommer: Training Argus, Kunstchronik 68(8): pp. 414-420, August 2015

Antonio Monroy, Peter Bell and Björn Ommer: Morphological analysis for investigating artistic images, in: Image and Vision Computing 32(6), pp. 414-423, 2014.

Antonio Monroy, Peter Bell, and Björn Ommer: Shaping Art with Art: Morphological Analysis for Investigating Artistic Reproductions, in: ECCV'12 (VISART), Springer, 2012, pp. 571-580.

Masato Takami, Peter Bell and Björn Ommer: Offline Learning of Prototypical Negatives for Efficient Online Exemplar, in: Proceedings of the IEEE Winter Conference on Applications of Computer Vision, pp. 377-384, 2014.

Masato Takami, Peter Bell and Björn Ommer: An Approach to Large Scale Interactive Retrieval of Cultural Heritage, in: Proceedings of the EUROGRAPHICS Workshops on Graphics and Cultural Heritage, EUROGRAPHICS Association, 2014.


Andrea Rapp: TextGrid - ein Virtueller Forschungsverbund

Andrea Rapp ist Professorin für Germanistische Computerphilologie und Mediävistik an der TU Darmstadt, sie kooperiert in zahlreichen Projekten an der Schnittstelle zwischen Philologie, Informatik und Forschungsinfrastruktur. 2005 initiierte sie mit 10 weiteren Partnern das Projekt TextGrid - Digitale Forschungsumgebung für die Geisteswissenschaften.

Das TextGridLab als digitaler Werkzeugkasten für geisteswissenschaftliche Forschung. Das TextGridLab dient hier als Werkzeugkasten bei der Erstellung einer kommentierten digitalen Edition. Mit dem Text-Bild-Link-Editor können beispielsweise Faksimiles transkribiert und mit Informationen in XML angereichert werden. Die eingescannten Originaltexte können dann mit der Transkription verknüpft werden. http://www.textgrid.de

Wie ist die Idee zu dem Projekt entstanden?

Andrea Rapp: TextGrid ist ein Projekt, das digitale Forschungsinfrastruktur konzipiert, entwickelt und nachhaltig verfügbar hält, insofern ist es nicht ganz vergleichbar mit klassischen geisteswissenschaftlichen Forschungsprojekten. Einer unserer zentralen Impulse war damals, dass wir Philologie mit digitalen Mitteln betreiben wollten und dafür nicht die optimalen, standard-basierten OpenSource-Werkzeuge und -Quellen zur Verfügung hatten, die wir brauchten. Hier hat sich natürlich in der letzten Dekade sehr viel getan, dennoch ist dieser Bedarf immer noch groß oder wächst sogar mit steigender Akzeptanz digitaler Verfahren.

Was war die Fragestellung zu dem Projekt?

Andrea Rapp: Die Initiativgruppe bestand in erster Linie aus PhilologInnen und TextwissenschaftlerInnen mit einem starken Fokus auf der Editionsphilologie, in der kollaboratives Arbeiten und digitale Werkzeuge bereits vergleichsweise breit im Einsatz waren, jedoch viele Insellösungen entstanden waren. Unsere Idee war jedoch, konsequent auf OpenSource und offene Standards zu setzen. In den späteren Phasen wurde neben der Tool-Entwicklung das Community-Building und die Nutzerberatung und -schulung immer wichtiger. Als ganz zentral hat sich das TextGrid Repository herausgestellt, das derzeit gemeinsam mit dem DARIAH-DE Repository gepflegt und weiterentwickelt wird. Inhalte kommen durch die Digitale Bibliothek und durch die Publikationen der NutzerInnen laufend hinein.

Wie wurde das Projekt finanziert? Falls es Förderanträge gab, wie gestaltete sich der Vorlauf?

Andrea Rapp: Die D-Grid-Initiative des Bundesministeriums für Bildung und Forschung (BMBF) bot uns damals die Möglichkeit, unsere Pläne in einem recht ungewöhnlichen Kontext zu konkretisieren: Als einziges geisteswissenschaftliches Projekt unter natur- und ingenieurwissenschaftlichen Vorhaben haben wir viel von den Forschungskulturen dieser Disziplinen und ihrer VertreterInnen profitiert, denn für sie ist der Zugang zu digtaler Infrastruktur etwas Selbstverständliches - vielleicht so wie für uns die Bibliothek oder der Zugang zu einem Archiv etwas Selbstverständliches sind. Das BMBF bot uns die Chance, die TextGrid-Infrastruktur in drei Förderphasen aufzubauen. Vor allem beim ersten Antrag galt es, sich im ungewohnten Kontext der Infrastrukturentwicklung zurechtzufinden und die Vorgaben der D-Grid-Initiative zu berücksichtigen, was durch die Koordination der SUB Göttingen aber gut an alle Partner vermittelt wurde.

Mit welchen Partnern wurde das Vorhaben umgesetzt und wie waren die Rollen verteilt?

Andrea Rapp: TextGrid wurde und wird von einem großen Konsortium getragen. In den drei Förderphasen wechselte jeweils ein wenig die Zusammensetzung. Beteiligt waren die folgenden Institutionen mit spezifischen Anliegen und Kompetenzen, die sie einbrachten:

  • Berlin-Brandenburgische Akademie der Wissenschaften (Nutzerbefragungen und Akzeptanz)
  • Technische Universität Berlin (Soziologie, Wissenschaftliche Begleitforschung, Monitoring)
  • DAASI International GmbH (Basistechnologie, Authentifizierungsinfrastruktur)
  • Technische Universität Darmstadt (TextGrid Laboratory, Schulungen, Beratung)
  • Musikwissenschaftliches Seminar der Universität Paderborn/Detmold (Musikwissenschaftliche Tools)
  • Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte Duisburg/Essen (Tools)
  • Gesellschaft für Wissenschaftliche Datenverarbeitung Göttingen mbH (Basistechnoligie, TextGrid Repository)
  • Niedersächsische Staats- und Universitätsbibliothek Göttingen (Verbundkoordination, TextGrid Repository)
  • Institut für deutsche Sprache in Mannheim (Linguistische Tools und Korpora)
  • Technische Universität Kaiserslautern (OCR-Tool)
  • Max-Planck-Digital Library (Tools)
  • Max-Planck-Institut für Wissenschaftsgeschichte, Berlin (Tools, Usability, Prozessorganisation)
  • Münchener Zentrum für Editionswissenschaft MüZE (Glossen-Editionstool)
  • Saphor GmbH (Basistechnologie)
  • Universität Trier (TextGrid Laboratory, Wörterbuchnetz)
  • Hochschule Worms (TextGrid Laboratory, Tests)
  • Julius-Maximilians-Universität Würzburg (TextGrid Laboratory, Digitale Bibliothek)

Die Gruppe hat ferner einen Verein gegründet, um TextGrid weiter gemeinsam betreuen und weiterentwickeln zu können.

Wie wurden die Ergebnisse publiziert?

Andrea Rapp: Das Laboratory als OpenSource Software kann über die TextGrid-Homepage frei heruntergeladen werden. Das Repository bietet eine umfangreiche XML/TEI-konforme Sammlung zumeist deutschsprachiger Kanonliteratur zur freien Nachnutzung an, die zugleich mittels linguistischer Tools analysierbar ist (hier wird auf die Digivoy Suite zurückgegriffen). Zahlreiche Reports, Aufsätze und Bücher finden sich auf der TextGrid-Homepage verzeichnet und zumeist auch als Download verfügbar; weitere Informationen gibt es im von TextGrid mitbetriebenen DHd-Blog, in verschiedenen Mailinglisten, im YouTube-DHd-Kanal oder über Twitter @TextGrid.

Weitere Informationen zu den Projekten

http://www.textgrid.de

http://www.textgridrep.de

http://www.dhd-blog.org

https://www.youtube.com/user/dhdkanal

Patrick Sahle: Altägyptisches Totenbuch - ein digitales Textzeugenarchiv

Patrick Sahle ist Geschäftsführer des Cologne Center for eHumanities (CCeH). Dort betreut er im Rahmen einer Kooperation zwischen der Universität zu Köln und der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste (AWK) auch die Umstellung schon länger laufender Akademievorhaben auf digitale Arbeits- und Publikationsformen. Am CCeH ist in Zusammenarbeit mit der Abteilung für Ägyptologie an der Universität Bonn in den Jahren 2011-2012 mit dem "Altägyptischen Totenbuch - ein digitales Textzeugenarchiv" die digitale Präsentation des damit zuende gehenden Langzeitvorhabens erarbeitet worden.

Das altägyptische Totenbuch: Ein digitales Textzeugenarchiv http://totenbuch.awk.nrw.de/

Wie ist die Idee zu dem Projekt entstanden?

Patrick Sahle: Die Bonner Arbeiten zum Totenbuch (seit 1994) umfassten schon früh eine Datenbank zur Objektbeschreibung sowie ein Bildarchiv. In den späten 00er Jahren wurde deutlich, dass eine "Publikation" der gesamten Projektergebnisse am besten online erfolgen sollte. Das digitale Abschlussprojekt ergab sich damit fast zwangsläufig aus dem inhaltlichen Forschungs- und Erschließungsprojekt.

Was war die Fragestellung zu dem Projekt?

Patrick Sahle: Das Akademievorhaben selbst sammelte alle relevanten Informationen zu allen bekannten Überlieferungsträgern zum altägyptischen Totenbuch (einem Textkorpus von Sprüchen) und leistete hier vor allem Erschließungsarbeit, z.B. in der Identifikation der einzelnen Texte auf den Objekten. Im Digitalisierungsprojekt ging es um die Frage, wie man die komplexen Informationen und das Bildarchiv auf die beste Weise dem forschenden Fachpublikum und einer breiteren interessierten Öffentlichkeit verfügbar machen und damit die weitere Beschäftigung mit dem Material fördern könnte.

Wie wurde das Projekt finanziert?

Patrick Sahle: Im Rahmen einer Digitalisierungsinitiative hat die Union der Akademien der Wissenschaften in Deutschland den einzelnen Akademien zusätzliche Mittel für die Umstellung schon länger laufender Vorhaben auf digitale Arbeits- und Publikationsformen zur Verfügung gestellt. Diese Mittel konnten für das Projekt genutzt werden nachdem ein entsprechender Projektplan entwickelt worden war.

Mit welchen Partnern wurde das Vorhaben umgesetzt und wie waren die Rollen verteilt?

Patrick Sahle: Das Vorhaben war eine ganz typische Zusammenarbeit zwischen einer fachwissenschaftlichen Seite und einem DH-Kompetenzzentrum. Für die fachwissenschaftliche Seite der Abteilung für Ägyptologie der Universität Bonn hat vor allem Marcus Müller, aber auch etliche weitere Projektmitarbeiter an der Entwicklung des Projekts, an der Diskussion zum Datenmodell und zum Portal teilgenommen. Neben der inhaltlichen Forschungsarbeit haben die Fachwissenschaftler aber auch die Bilddigitalisierung und die Dateneingabe selbstständig durchgeführt. Auf der DH-Seite haben sich am CCeH Patrick Sahle, Ulrike Henny, Jonathan Blumtritt und Franz Fischer um die Modellentwicklung, die Datenpflege (Übernahme, Konversion, Bereinigung, Anreicherung), die Systementwicklung (Server, Datenbank, Abfrageskripte, Nutzerverwaltung, Oberfläche) und die Visualisierungen gekümmert. Um zu einer guten Publikation zu kommen war außerdem ein Designbüro für den Portalentwurf beteiligt.

Warum wurden digitale Methoden gewählt?

Patrick Sahle: Eine Publikation des gesammelten Wissens und der Abbildungen in Buchform wäre offensichtlich weder vom Umfang noch von der Funktionalität her sinnvoll gewesen. Nur die digitale Publikation erlaubte vielfältige Browse- und Suchzugänge, zusätzliche Visualisierungen von Zusammenhängen und eine permanente Weiterbearbeitung des Wissens.

Wie wurden die Daten erhoben?

Patrick Sahle: Die Daten wurden von den ägyptologischen FachwissenschaftlerInnen zunächst in einer Filemaker-Datenbank erhoben. Das Modell wurde im Digitalisierungsprojekt in XML überarbeitet und verfeinert. Die Altdaten wurden dann migriert, homogenisiert, überarbeitet und von den FachwissenschaftlerInnen weiter gepflegt. Zusätzlich wurden nebenläufige "Wissensbasen" angelegt, z.B. zu Materialgruppen, Datierungen, Geographica etc.

Welche Tools haben Sie ausgewählt und warum?

Patrick Sahle: Die gesamte Datenhaltung beruht auf einem lokalen XML-Dialekt. Man hätte lieber einen Standard verwendet, allerdings lag kein passender vor, es bestand bereits ein projektinternes Modell und die Zeit drängte. Die Daten wurden (und werden) in einer XML-Datenbank (eXist) verwaltet. Die Datenpflege erfolgte direkt im oXygen-Text-Mode, der mit der Datenbank verbunden war. Die bereits vorhandenen Abbildungen der Stücke wurde mit einfachen Scannern digitalisiert weil eine Faksimilierung nicht zu den eigentlichen Zielen des Projektes gehörte. Weitere Abbildnugen wurden mit digitalen Kameras vor Ort angefertigt.

Wie verlief die Analyse?

Patrick Sahle:Das bestehende Filemaker-Modell wurde übernommen, kritisch gesichtet und in der Diskussion zwischen den Fachwissenschaftlern und den DH-Spezialisten auf Basis von XML weiter entwickelt.

Wie wurden die Ergebnisse publiziert?

Patrick Sahle: Das Ergebnis ist ein digitales Portal. Die XML-Datenbank wird mittels xQuery abgefragt und liefert on the fly generierte Webseiten zurück. Aus rechtlichen Gründen gibt es ein Rollenmodell, das bestimmte Abbildungen nur einem registrierten Nutzerkreis zugänglich macht.

Was sind erwähnenswerte Besonderheiten im Projekt?

Patrick Sahle: Die xQuery-Abfragen der Datenbank wurden auch genutzt, um durch Visualisierungen einen besseren Überblick über die komplexen Daten zu schaffen. Besonderer Wert wurde auf die Nachhaltigkeit des Projekt gelegt. Eine der Grundlagen dafür ist eine enge Verbindung zur weiteren Community der Altertumskunde: Hierzu werden z.B. die einigermaßen kanonischen "Trismegistos"-Nummern als Identifikatoren der Objekte und zur Herstellung permanenter Links verwendet oder Dienste von Pelagios/Pleiades eingebunden. Das Projekt ist auch ein Testfall dafür, wie zuende gegangene Forschungsprojekte weiterleben können: Beim Totenbuch besteht eine umfassende Eingabemaske weiter, mit der auch Jahre nach Projektende die Daten korrigiert und weiter gepflegt werden können - was tatsächlich manchmal geschieht.

Weitere Informationen zu den Projekten

Startseite: http://totenbuch.awk.nrw.de/

Beispiel für ein Objekt, mit Permalink: http://totenbuch.awk.nrw.de/objekt/tm57143

Beispiel für Informationsvisualisierung: http://totenbuch.awk.nrw.de/uebersicht/sprueche

Handschriften analysieren mit eCodicology

Exemplarische Layoutmerkmale einer mittelalterlichen Handschriftenseite. Quelle: Projekt eCodicology.. http://www.ecodicology.org/index.php?id=4

Das Projekt eCodicology – Algorithmen zum Tagging mittelalterlicher Handschriften – wird in Zusammenarbeit zwischen der Technischen Universität Darmstadt, dem Karlsruher Institut für Technologie und der Universität Trier durchgeführt. Das Ziel ist die Entwicklung, Überprüfung und Verbesserung von neuen Algorithmen, die makro- und mikrostrukturelle Gestaltungsmerkmale auf mittelalterlichen Handschriftenseiten erkennen, um deren Metadaten im XML-Format gemäß TEI P5 anzureichern. Die Beschreibungen aus den früheren Handschriftenkatalogen können auf diese Weise automatisiert ergänzt und verborgene Zusammenhänge zwischen Handschriften aufgedeckt werden.

Datengrundlage bilden die im Projekt "Virtuelles Skripotorium St. Matthias" erstellen Digitalisate von rund 440 Handschriften der mittelalterlichen Bibliothek der Abtei St. Matthias in Trier. Durch Verfahren der Bildbearbeitung werden die 170.000 Handschriftenseiten zunächst vorprozessiert, um eine Vergleichbarkeit zu gewährleisten. Für die automatisierte Extraktion und Vermessung der Layoutmerkmale in den Digitalisaten werden spezielle Algorithmen angepasst und bei Bedarf entwickelt. Für eine Untersuchung wurden einfache Parameter wie Seitengröße, Schriftraum, Bildraum, Abstände und Ränder (freigelassener Raum), graphische Elemente, Anzahl der Textspalten sowie Anzahl der Textzeilen identifiziert, für die v.a. ihre Ausdehnung (Höhe x Breite) sowie Anzahl und Position (Koordinaten) auf jeder Seite verlässlich gemessen werden. Die bei der Bildverarbeitung gewonnenen Daten zu den Layoutmerkmalen werden anschließend als sogenannte XML-Tags automatisch in den Metadaten abgelegt. Die festgehaltenen Werte lassen sich anschließend visualisieren, zueinander in Beziehung setzen und dienen als Grundlage für neue wissenschaftliche Erkenntnisse.

eCodicology geht über die etablierten Standards der virtuellen Rekonstruktion historischer Bibliotheken hinaus, die vor allem auf die Zusammenführung, inhaltliche Aufbereitung und Präsentation des Materials abzielen. Das Besondere am Projekt ist zudem sein Modellcharakter, den es erreichen will, indem es die Möglichkeit der Nachnutzung anstrebt. Die an den Beständen von St. Matthias erprobten Algorithmen könnten so als Ausgangspunkt für die Untersuchung weiterer Handschriftenbestände dienen.

Das Festhalten von äußeren Merkmalen auf jeder einzelnen Kodexseite aus einem geschlossenen Handschriftenbestand kann für die Beantwortung bestimmter Forschungsfragen sinnvoll sein, für die eine sehr große Datenmenge systematisch ausgewertet werden muss. Mit einer rein händischen Vorgehensweise könnten z.B. diachrone Entwicklungen im Layout des St. Mattheiser Bestandes nur unter großen Anstrengungen verfolgt werden. Eine abschließende statistische Auswertung erlaubt die Analyse der Handschriftenseiten auf einer quasi-empirischen Basis. Regelmäßigkeiten (Muster) bzw. Veränderungen der Layoutkonstellationen lassen sich auf diese Weise aufspüren.

Visualisierung der Layoutmerkmale eines Teils des St.Mattheiser Bestandes

Mit Hilfe der Bildung von Korrelationen zwischen den Metadaten aus den Handschriftenbeschreibungen (z.B. Datierung, Textgattung, Beschreibstoff) und den automatisch erhobenen Layoutdaten können weitere Fragen an den Bestand von St. Matthias gerichtet werden. Zu den vielversprechendsten Ansätzen zählen:

  • Die Entdeckung von Abhängigkeiten zwischen beschrifteten/freien Flächen und dem Format der Handschrift
  • Die Ermittlung des Verhältnisses von Bildraum und Textraum auf den Seiten
  • Das Aufspüren von Bezügen zwischen Textinhalt und Gestaltung der Seiten
  • Das Zusammenführen von Fragmenten anhand der Seitengestaltung
  • Die Identifikation von Schreiberhänden anhand der Seitengestaltung

Im Projekt eCodicology kommt eine Forschungsmethode zum Einsatz, die mit dem in der Computerphilologie etablierten Verfahren des distant reading vergleichbar ist. Nicht das detaillierte und intensive close reading einzelner Bücher steht im Vordergrund. Stattdessen soll eine quantitative Gesamtschau über alle Seiten des mittelalterlichen Buchbestandes der Abtei St. Matthias erfolgen, und zwar hinsichtlich der formalen Gestaltung der Handschriftenseiten. Eine solche Analyse erlaubt es dem Kodikologen, das Material aus der Vogelperspektive zu betrachten. Der subjektive Blick des Handschriftenforschers kann auf diese Weise "objektiviert" werden.

Diese und weitere Informationen zum Projekt finden sich unter www.ecodicology.org.

DH-Projekte in Europa

Auf Europäischer Ebene gibt es verschiedene Projekte, welche für die Geisteswissenschaften viele Anreize und Unterstützung bieten.

Hier werden virtuelle Forschungsumgebungen für verschiedene geisteswissenschaftliche Domains erstellt, Best Practice Netzwerke gebildet oder Tools und Dienstleistungen für geisteswissenschaftliches Arbeiten entwickelt. Bei EU-weiten Projekten kann man zwischen generischen Projekten und Infrastrukturprojekten unterscheiden. Beiden gemein ist, dass sie durch Konsortien aus Partnern von mindestens 3 Ländern betrieben werden.

Die Projekte verfolgen unterschiedliche Ziele und sind im ganzen Spektrum der geisteswissenschaftlichen Forschung anzutreffen. So geht es zum einem um die Digitalisierung, Aufbereitung und den Zugang von analogen Quellen als Grundlage für die geisteswissenschaftliche Forschung (z.B. Europeana Research[1]) oder um die Entwicklung spezieller digitaler Werkzeuge für die Beantwortung von Forschungsfragen und um die Formulierung von Policies und Strategien um die Nachhaltigkeit von geisteswissenschaftlichen Forschungsinfrastrukturen und den darin vorgehaltenen Forschungsdaten zu befördern (z.B. Parthenos [2]).

Weitere Beispiele für Projekte sind:

  • ENARC: The European Network on Archival Cooperation ist ein von der ICARUS4all (International Centre for Archival Research for All) Initiative betriebenes EU-Projekt mit Partnern aus hochrangigen Archiven mehrerer europäischer Staaten. Es werden sowohl Digitalisierungsvorhaben durchgeführt als auch Tools entwickelt, mithilfe derer die resultierenden Daten angereichert und präsentiert werden können. [3] 
  • Openaire: Open Access Infrastructure for Research in Europe entwickelt ein übergreifendes Suchportal zum Recherchieren und Zugreifen auf diverse Datentypen im Projektkontext. Hier findet der/die geneigte Forschende Daten aus Abschlussarbeiten, Forschungsprojekten, Projektmetadaten und Personen. [4]
  • DiXiT: Digital Scholarly Editions Initial Training Network ist ein Bildungs- und Forschungsprogramm für europäische Doktoranden und Postdoktoranden, die im Kontext von digitalen Editionen arbeiten.[5]

Während Projekte tendenziell nach einem festen Zeitraum abgeschlossen sind, streben Infrastrukturen eher eine dauerhafte Förderung -beispielsweise im Rahmen einer europäischen Organisationsform European Research Infrastructure Consortium (ERIC)- an, damit sie auch unbefristet ihre Dienstleistungen zur Verfügung stellen können. Eine Recherche über angebotene Dienste und Portale lohnt sich bei einem eigenen Projektentwurf allemal – gerade auch um potentielle Partner oder unterstützende Portale zu finden. Allerdings ist bei abgeschlossenen Projekten mitunter Vorsicht geboten, da hier der Fall auftreten kann, dass Angebote nicht mehr eingehalten werden und Software nicht mehr gepflegt und weiter entwickelt wird.[6]

Eine beispielhafte Übersicht über europäische Infrastrukturprojekte und ihre Förderung bietet die folgende Liste: 

EHRI

 "The European Holocaust Research Infrastructure"[7] ist ein Verbund aus 20 Institutionen, die aus den Bereichen Holocaustforschung, Archivwissenschaft und Digital Humanities kommen. Ziel des Projekts ist die digitale Zusammenführung verteilter archivalischer Ressourcen in einem Portal, das WissenschaftlerInnen und Interessierten Zugang zu den Materialien der Holocaustforschung bietet, diese mit Daten anreichert und auffindbar macht, damit sie mit digitalen Werkzeugen bearbeitet werden können.

ARIADNE

„Advanced Research Infrastructure for Archaeological Datasets Networking in Europe"[8] verfolgt das Ziel, vorhandene Forschungsdatenbanken in der Archäologie zusammenzuführen, um digitale Daten aus den Bereichen Archäologie und Kulturerbe auf europäischer Ebene wissenschaftlich nutzen zu können.

Das EU-Projekt bringt 24 Partner aus 13 Ländern zusammen. Diese teilen archäologische Datenbanken und Kenntnisse im Bereich der Datentechnik, um die Basis für eine pan-europäische Forschungsinfrastruktur zu schaffen. Sie soll zukünftig der archäologischen Wissenschaft wie auch dem Kulturgutmanagement von Nutzen sein. Ziele des Projektes sind, verwendete Daten- und Metadatenstandards zusammenzustellen, gemeinsame Mindeststandards zu erarbeiten und Schnittstellen zu entwickeln.  

ESFRI

steht für the European Strategy Forum on Research Infrastructures und ist ein Förderbereich der EU für nachhaltigen Zugang zu virtuellen Forschungsinfratsrukturen. Zurzeit zählen fünf pan-europäische Infrastrukturen in den Sozial -und Geisteswissenschaften (SSH - Social Science and Humanities) zu den ESFRI-Infratstrukturen[9]: DARIAH-ERIC[10], CLARIN-ERIC[11], ESS-ERIC[12], CESSDA[13], SHARE-ERIC[14]. Hier werden beispielhaft nur DARIAH und CLARIN vorgestellt.

DARIAH-ERIC

Das Digital Research Infrastructure for the Arts and Humanities (DARIAH) ERIC möchte Wissenschaftler, Werkzeuge und digitale Methoden in den Digital Humanities zusammenbringen, interdisziplinäres Arbeiten in den Geisteswissenschaften unterstützen und nachhaltige Strategien für Forschungsdaten entwickeln. 

CLARIN-ERIC

Common Language Resources and Technology Infrastructure (CLARIN) ist mit Ausnahme von DARIAH das einzige andere geisteswissenschaftliche Forschungsinfrastrukturvorhaben, welches im Rahmen der ESFRI-Roadmap von der EU bewilligt wurde. CLARIN beschäftigt sich hauptsächlich mit linguistischen Methoden, Werkzeugen und Forschungsfragen.

Anmerkungen

  1. Europeana Research möchte WissenschaftlerInnen den Zugang zu in der Europeana referenzierten Materialien erleichtern, damit diese als Grundlage für Forschung eingesetzt werden können. Dabei geht es um Klärung von rechtlichen Fragen und Zugangsmodalitäten. http://research.europeana.eu/
  2. http://www.parthenos-project.eu/
  3. http://enarc.icar-us.eu/
  4. Vgl. www.openaire.eu
  5. http://dixit.uni-koeln.de/
  6. Für Übersichten vgl. http://humanum.hypotheses.org/155, https://dariah.eu/about/collaboration.html, http://de.slideshare.net/dri_ireland/peter-doorn
  7. http://www.ehri-project.eu/
  8. http://www.ariadne-infrastructure.eu/
  9. https://ec.europa.eu/research/infrastructures/index_en.cfm?pg=esfri
  10. https://dariah.eu/
  11. http://clarin.eu/
  12. http://www.europeansocialsurvey.org/
  13. http://cessda.net/
  14. http://www.share-project.org/