DH-Handbuch/DH in der Praxis

Aus Handbuch.io

<<<Zurück
Einführung
Inhaltsverzeichnis Weiter>>>
Wie organisiert man Forschungsdaten

Wie verlaufen DH-Projekte? Einblicke in die Praxis

Um einen Einblick in die tagtägliche Arbeit von WissenschaftlerInnen in den Digital Humanities zu bekommen, haben wir einige WissenschaftlerInnen gebeten, ihr DH-Projekt vorzustellen und ihrer digitalen Methoden und erzielte Ergebnisse näher zu beleuchten.

Anne Baillot: Berliner Intellektuelle 1800-1830

Anne Baillot ist Literaturwissenschaftlerin und leitet seit 2010 am Institut für deutsche Literatur der Humboldt-Universität zu Berlin eine Emmy Noether-Nachwuchsgruppe zum Thema "Berliner Intellektuelle 1800-1830". Sie koordiniert den Einstein-Zirkel Digital Humanities.

Briefe und Texte aus dem intellektuellen Berlin um 1800: http://tei.ibi.hu-berlin.de/berliner-intellektuelle/

Wie ist die Idee zu dem Projekt entstanden?

Anne Baillot: Das Projekt "Berliner Intellektuelle 1800-1830" schloss direkt an meine Dissertation an. In meiner Dissertation habe ich die Frage nach der Konstitution von Intellektuellennetzwerken im Kontext der napoleonischen Kriege an einem Einzelbeispiel untersucht und wollte die Analyse ausdehnen, um ein strukturelles Verständnis dieser Netzwerke zu gewinnen und dieses in der Lektüre der produzierten (literarischen, geisteswissenschaftlichen) Texte umzusetzen. Der Skalawechsel vom Einzelfall zur Gesamtstruktur war eine Grundvoraussetzung des Projektes.

Wie lautete die Fragestellung zu dem Projekt?

Anne Baillot: Im Mittelpunkt des Projektes steht die Frage nach Form und Bedeutung der Teilnahme von Gelehrten am öffentlichen Leben mit besonderer Berücksichtigung ihrer Kommunikationsstrategien und der damit einhergehenden politischen Stellungnahmen. Untersucht werden die Berliner Intellektuellennetzwerke zwischen 1800 und 1830 als Orte des Kultur- und Wissenstransfers. 

Warum wurden digitale Methoden gewählt?

Anne Baillot: Die Grundidee bestand darin, mehrere Textkorpora (die jeweils einen der einschlägigen thematischen Schwerpunkte der Fragestellung illustrierten) anhand eines gemeinsamen Rasters zu erfassen. Dies war viel ökonomischer und auf einer viel größeren Skala durch digitale Mittel zu bewerkstelligen. So entstand die digitale Edition "Briefe und Texte aus dem intellektuellen Berlin um 1800" (http://tei.ibi.hu-berlin.de/berliner-intellektuelle/ -NB: Der Techniker macht diese Tage größere Updates, es kann sein, dass die Edition mal nicht geht)

Wie wurden die Daten erhoben?

Anne Baillot: Die Handschriften wurden nach ihrer Relevanz für die Fragestellung ausgesucht. Die Transkription und Annotation erfolgte komplett händisch, ausser für die biographischen Datensätze, die im Rahmen des Boeckh-Nachlassprojektes (http://tei.ibi.hu-berlin.de/boeckh/ ) über die GND-Nummern von kalliope (http://kalliope.staatsbibliothek-berlin.de/de/index.html) direkt importiert wurden.

Welche Tools haben Sie ausgewählt und warum?

Anne Baillot: Die genaue Struktur der Datenbank kenne ich nicht. Am Ende der Literaturwissenchaftler wird in XML/TEI gearbeitet, mit Oxygen. Die Einarbeitung verlief in oxygen sehr gut. Textgrid wurde zu Projektbeginn einstimmig verworfen, da zu unstabil. In oxygen ist ein SVN-Client eingebaut, der die kollaborative Anreicherung der Daten möglich macht.

Wie verlief die Analyse?

Anne Baillot: Die Analyse erfolgte soweit primär analog. In Zusammenarbeit mit Machine Learning-Spezialisten der Technischen Universität arbeite ich derzeit an einer großformatigeren Auswertung bestimmter Textphänomenen, die von uns annotiert wurden. Darüber hinaus hoffe ich, Netzwerkanalyse anschliessen zu können, wobei dies aus meiner Sicht nur in Zusammenarbeit mit Informatikern erfolgen kann (und es hoffentlich wird).

Wie wurden die Ergebnisse publiziert?

Anne Baillot: Digitale Edition, Nachlassverzeichnis, Blog, Sammelbände, Aufsätze wurden bereits veröffentlicht. Darüber hinaus sind 3 Dissertationen in der Abschlussphase.

Weitere Links:

http://digitalintellectuals.hypotheses.org/

http://www.literaturkritik.de/public/rezension.php?rez_id=19678&ausgabe=201409

Daniel Burckhardt: Verbrannte und Verbannte

Daniel Burckhardt ist Mathematiker und Wissenschaftshistoriker an der Humboldt-Universität zu Berlin. Zusammen mit einem ad-hoc Team von 9 Personen setzte er 2014 das Projekt "Verbannte und Verbrannte" um, eine Webseite zur Liste der im Nationalsozialismus verbotenen Publikationen und Autoren.

Visualisierung von Lebenswegen auf der Seite "Verbrannte und Verbannte": http://verbrannte-und-verbannte.de/

Wie ist die Idee zu dem Projekt entstanden?

Daniel Burckhardt: Das Projekt entstand im Rahmen von {COD1NG DA V1NC1}, dem ersten „Kultur-Hackathon“ in Berlin, der zwischen dem 26./27. April und dem 5./6. Juli 2014 stattfand.

Wie lautete die Fragestellung zu dem Projekt?

Daniel Burckhardt: Das Projekt startete weniger mit einer Fragestellung als mit einem Datensatz, der vom Land Berlin als offene Daten veröffentlichte Liste der verbannten Bücher. Dieser Basisdatensatz wurde in einem zweiten Schritt systematisch mit Normdaten ergänzt. Ziel war einerseits eine bessere Nutzerführung, andererseits boten die inhaltlich ergänzten Daten die Basis für Visualisierungen und statistische Auswertungen.

Warum wurden digitale Methoden gewählt?

Daniel Burckhardt: Eine manuelle Bearbeitung der rund 5'000 bibliografischen Einträge sowie fast 2'000 Personendatensätze wäre im kurzen Zeitraum von gut 2 Monaten nicht zu leisten gewesen.

Wie wurden die Daten erhoben?

Daniel Burckhardt: Der Basisdatensatz wurde vom Land Berlin zur Verfügung gestellt. Diese Daten wurden mit den Katalogdaten der Deutschen Nationalbibliothek im RDF-Format abgeglichen. Da die Verfasserinnen, Herausgeber und Verlage im Katalog mit GND-Nummern markiert sind, konnten automatisiert Zusatzinformationen aus weiteren Linked-Open-Data-Diensten (Entity Facts, Wikidata) abgerufen werden.

Welche Tools haben Sie ausgewählt und warum?

Daniel Burckhardt: OpenRefine zum Bereinigen der Daten, Programmcode in Java und PHP (https://github.com/jlewis91/codingdavinci, https://github.com/mhinters/BannedBookUtils), JavaScript-Bibliotheken (Leaflet.js, D3.js) zur Präsentation.

Wie verlief die Analyse?

Daniel Burckhardt: Im wesentlichen wurden die Daten über SQL-Abfragen nach verschiedenen Kriterien gruppiert und dann auf Karten oder als Diagramme visualisiert.

Wie wurden die Ergebnisse publiziert?

Daniel Burckhardt: Bislang nur über die Website. Eine fachwissenschaftliche Analyse der Ergebnisse steht noch aus.

Weitere Informationen

Verbrannte und Verbannte. Die Liste der im Nationalsozialismus verbotenen Publikationen und Autoren: http://verbrannte-und-verbannte.de/about

Matthias Kiesselbach und Christoph Kümmel (DFG): Digital Humanities aus Förderperspektive

Matthias Kiesselbach ist in der DFG-Geschäftsstelle zuständig für das Fach der Philosophie und in der Gruppe Geistes- und Sozialwissenschaften Ansprechpartner für Fragen zur Digitalisierung in der geistes- und sozialwissenschaftlichen Forschung.

Christoph Kümmel ist in der Geschäftsstelle der DFG zuständig für das Förderprogramm Fachinformationsdienste für die Wissenschaft sowie für das „Bilateral Digital Humanities Program“ mit dem National Endowment for the Humanities (NEH). In der Gruppe Wissenschaftliche Literaturversorgungs- und Informationssysteme ist er Ansprechpartner zu Fragen der digitalen Informationsinfrastrukturen für die Geisteswissenschaften.

Wie schätzen Sie die Entwicklung der digitalen Geisteswissenschaften ein?

In den letzten Jahren wurden an mehreren Universitäten Zentren für die Forschung und Lehre in den Digitalen Geisteswissenschaften gegründet; 2013 kam ein Fachverband hinzu (DHd – Digital Humanities im deutschsprachigen Raum); im letzten Wissenschaftsjahr des BMBF (Motto: „Digitale Gesellschaft“) wurden die Digitalen Geisteswissenschaften immer wieder an prominenter Stelle erwähnt. Angesichts dieser Entwicklungen kann man mit Fug und Recht behaupten, dass die digitalen Geisteswissenschaften eine Kraft sind, mit der man in der Wissenschaftsszene rechnen muss.

Allerdings bleibt zweierlei zu konstatieren. Zum einen ist das Aufkommen der „digitalen Geisteswissenschaften“ nicht unbedingt ein qualitatives Novum. In Bezug auf Quellen und Methoden waren verschiedene Bereiche der Geisteswissenschaften schon immer offen und pragmatisch. Etwa für die Archäologie oder die Sprachwissenschaft gehörten bestimmte digitale Technologien schon lange zum Quellen- und Methodenportfolio, bevor sich die Rede von den „digitalen Geisteswissenschaften“ etablierte. Zum andern ist ein großer Teil der Anstrengungen im Bereich der sogenannten Digitalen Geisteswissenschaften bislang eher auf den forschungsvorbereitenden Bereich als auf die Forschung an sich konzentriert. Mitunter ist in den Foren und Veranstaltungen der Digitalen Geisteswissenschaften mehr von digitalen Werkzeugen als von konkreten Forschungsfragen die Rede, zu deren Beantwortung die Werkzeuge dienen sollen.

Andererseits ist die Dynamik im Feld der der digitalen Geisteswissenschaften unbestreitbar. Die große Frage ist, was in der Zukunft von den digitalen Geisteswissenschaften zu erwarten ist. Werden die digitalen Technologien sich weiterhin (vor allem) einfügen in das Quellen- und Methodenportfolio der Geisteswissenschaften und („bloß“) dafür sorgen, dass größere Datenmengen schneller analysiert werden können oder dass die Validität der Ergebnisse steigt? (Das wäre gewiss nicht wenig!) Oder werden sie, wie die Rhetorik der digitalen Geisteswissenschaften nicht selten anzukündigen scheint, die Disziplinen in einem substanzielleren Sinn transformieren?

Diese Frage ist aus Sicht der DFG noch weitgehend offen. Ihre Antwort wird – auch – von der Qualität und Ernsthaftigkeit der Selbstreflexion der Digitalen Geisteswissenschaften abhängen. Dazu zählt die noch kaum begonnene Diskussion der epistemologischen Grundlagen der Geisteswissenschaften im Licht ihrer digitalen Erweiterungen, und hier insbesondere die Frage, wie sich der im Kern hermeneutische Ansatz der klassischen Geisteswissenschaften eigentlich zu den Möglichkeiten der digitalen Technologien verhält. Vermutlich wird sich der Beitrag der Digitalität zur geisteswissenschaftlichen Forschung irgendwo zwischen »more of the same« (oder »the same, but better«) und der Transformation der klassischen Forschungspraxis durch den Beitrag des Digitalen liegen. Aber wie er genau aussieht, bleibt abzuwarten.

Welche Art von Digital Humanities-Projekten fördert die DFG?

Grundsätzlich gibt es zwei Arten von DH-Projekten, die von der DFG gefördert werden können. Zum einen sind dies Projekte, die unter den Oberbegriff der Infrastrukturentwicklung fallen. Dabei geht es beispielsweise um die digitale Aufbereitung von Quellen – etwa die Retrodigitalisierung gedruckter Texte in Bibliotheken – zur Ermöglichung neuer Forschungsperspektiven oder um die Entwicklung und Erprobung neuartiger Werkzeuge, Organisationsformen und „Geschäftsmodelle“ für den Umgang mit forschungsrelevanten Informationen – nicht zuletzt für Publikationen. Dabei ist zu bedenken, dass auch in diesem Bereich grundsätzlich nur Projekte gefördert werden können, also keine Daueraufgaben von Informationseinrichtungen querfinanziert werden können.

Zum andern werden Forschungsprojekte im engeren Sinn gefördert. Dies können Projekte aller Art und jeglicher Dimension sein. Für Projekte der Digitalen Geisteswissenschaft gibt es keine eigenen Regeln. Hier gilt wie überall bei der DFG: Solange es sich bei einem Projekt um einen innovativen und vielversprechenden wissenschaftlichen Beitrag handelt, kann es von der DFG gefördert werden. Und wenn bei einem Projekt die Einbeziehung digitaler Technologien oder informatischer Expertise notwendig für den wissenschaftlichen Projekterfolg ist – dann wird auch sie gefördert. Die Einschätzung der Frage, inwieweit diese Kriterien bei einem konkreten Projekt erfüllt sind, ist Sache der externen Gutachter*innen und der Entscheidungsgremien.

Welche Zeiträume und Fristen sind bei Neuanträgen zu beachten?

Bei der DFG gibt es prinzipiell keine Einreichungsfristen für Projektanträge. 

Ausnahmen bilden (bestimmte) internationale Ausschreibungen, darunter auch die in Kooperation mit dem amerikanischen National Endowment for the Humanities (NEH) bislang alle zwei Jahre stattfindende Digital Humanities-Ausschreibung. Eine weitere Ausschreibung mit fester Einreichungsfrist ist die in Kooperation mit verschiedenen europäischen und nord- sowie südamerikanischen Förderorganisationen geplante Initiative „Digging Into Data“. Die Ausschreibung wird voraussichtlich im Winter 2015/16 auch für deutsche Teilnehmer*innen geöffnet. 

In der Softwareentwicklung ist es häufig sinnvoll, digitale Werkzeuge in verschiedenen Iterationen zu entwickeln (agile Softwareentwicklung), um sich nach ersten Tests mit einer vorläufigen Version auf neue Features zu einigen. Wie lässt sich dies mit den Anforderungen der Anträge vereinbaren?

Die Frage ist für uns nicht auf Anhieb verständlich – wahrscheinlich ist damit angedeutet, dass bei moderner Softwareentwicklung „Weichen“ und „Entscheidungsmomente“ eingeplant werden müssen und sich der Erfolg nicht im Voraus planen lässt. Es gibt die Beobachtung, dass Anträge, bei denen es um Softwareentwicklung geht und in deren Arbeitsplan in keiner Weise auf Risiken, alternative Szenarien oder bewusst eingebaute Tests (mit Konsequenzen für den Fortgang) eingegangen wird, von den Gutachter*innen skeptisch beurteilt werden. Grundsätzlich muss man davon ausgehen, dass die ausgewählten Gutachter*innen Experten ihres Faches sind und sich bestens damit auskennen, wie Softwareentwicklung zu einem Erfolg werden kann. 

Wo kann man sich zu weiteren Fördermöglichkeiten außerhalb der DFG informieren?

 Sicherlich auf dem Webauftritt des DHd. Lohnend ist immer auch ein Blick auf die Seiten des BMBF und anderer einschlägiger Stiftungen (beispielsweise der VolkswagenStiftung).

Welche Bedeutung hat die Nachnutzbarkeit von Forschungsdaten?

Die DFG legt großen Wert auf die freie Zugänglichkeit und Nachnutzbarkeit von Forschungsdaten. Von allen Antragsteller*innen, die Projekte planen, innerhalb derer Forschungsdaten generiert werden, wird eine ernsthafte und sorgfältig dokumentierte Beschäftigung mit den Nachnutzungsmöglichkeiten der generierten Daten erwartet. Welche Maßnahmen zur Ermöglichung der Nachnutzung von Forschungsdaten im Einzelnen erwartet werden, ist allerdings nicht allgemein zu sagen. Es gilt, dass der zu betreibende Aufwand für eine konkrete Maßnahme in einem sinnvollen Verhältnis zum erwarteten Nutzen stehen muss; ebenfalls erkennt die DFG an, dass in verschiedenen Fächern unterschiedliche Standards gelten. Einschränkend muss man auch leider feststellen, dass es in manchen Wissenschaftsbereichen noch keine verlässlichen Infrastrukturen gibt, die entsprechende Angebote machen. Aber die Lage bessert sich!

Weitere Informationen zur Nachnutzung von Forschungsdaten lassen sich unter http://www.dfg.de/foerderung/antragstellung_begutachtung_entscheidung/antragstellende/antragstellung/nachnutzung_forschungsdaten/index.html abrufen.

Wie wichtig ist Open Access in den Geisteswissenschaften?

Ebenso wichtig wie die Nachnutzbarkeit von Forschungsdaten ist die ungehinderte Verbreitung von Forschungsergebnissen. Aus diesem Grund fördert die DFG die Open Access-Bewegung auf vielfältige Weisen und fordert auch ihre Drittmittelempfänger auf, bei der Veröffentlichung ihrer Forschungsergebnisse nach Möglichkeit auf Open Access Publikationsorte zu setzen. Die DFG erkennt allerdings an, dass die verfügbaren Open Access Publikationsorte nicht in allen Fächern die üblichen Standards der Qualitätssicherung erfüllen. Wir erleben hier in den letzten Jahren jedoch eine enorme Zunahme an sehr guten Publikationsmöglichkeiten – auch in Fächern, die bislang noch ganz auf Printpublikationen gesetzt haben. Wir gehen davon aus, dass es zunehmend unproblematischer wird, eine – auch aus engerer fachlicher Sicht – geeignete Möglichkeit für eine qualitativ hochwertige Veröffentlichung im Open Access zu finden. Künftig werden beispielsweise auch die „Fachinformationsdienste für die Wissenschaft“ entsprechende Dienste anbieten.

Was können Forschungsinfrastrukturen zu DH-Projekten beitragen?

DH-Projekte – wie auch immer diese definiert sein mögen – profitieren genauso wie alle anderen Forschungsvorhaben von einer möglichst verlässlichen und technisch modernen Infrastruktur. Es ergibt sich aus der Natur der Sache, dass Projekte, die große Datenmengen analysieren möchten und hierfür beispielsweise auf entsprechende digitale Quellensammlungen („Corpora“) und geeignete Werkzeuge zum Umgang mit diesen Daten angewiesen sind, im besonderen Maße von neuartigen Infrastrukturen abhängen. Für viele DH-Projekte wäre es beispielsweise beruhigend zu wissen, wie es mit den großen Projekten auf der ESFRI-Roadmap (DARIAH, CLARIN) weitergeht. 

Wo finden sich hilfreiche Links und Ressourcen zur Antragstellung?

 Auf der Homepage der DFG finden Antragsteller*innen alles, was sie an Informationen für die Antragstellung brauchen. 

Links

http://www.dfg.de 

Die Deutsche Forschungsgemeinschaft ist die Selbstverwaltungsorganisation der Wissenschaft in Deutschland. Sie dient der Wissenschaft in allen ihren Zweigen. Organisiert ist die DFG als privatrechtlicher Verein. Ihre Mitglieder sind forschungsintensive Hochschulen, außeruniversitäre Forschungseinrichtungen, wissenschaftliche Verbände sowie die Akademien der Wissenschaften. 

Die DFG erhält ihre finanziellen Mittel zum größten Teil von Bund und Ländern, die in allen Bewilligungsgremien vertreten sind. Dabei stellen Stimmverhältnisse und Verfahrensregeln wissenschaftsgeleitete Entscheidungen sicher.

Thomas Kollatz: Relationen im Raum visualisieren mit dem Topographie-Visualisierer

Thomas Kollatz ist wissenschaftlicher Mitarbeiter am Steinheim-Institut für deutsch-jüdische Geschichte in Essen. Seit 2002 entwickelt und betreut er epidat, die epigraphische Datenbank zu historischen jüdischen Friedhöfen.

Wie ist die Idee entstanden?

Topographie Visualisierer

Thomas Kollatz: Die Idee zum Projekt "Relationen im Raum – Visualisierung topographischer Klein(st)strukturen" ist aus unserer jahrelangen epigraphischen Arbeit an historischen jüdischen Friedhöfen entstanden. In den letzen Jahren wurde ein umfangreicher Inschriftenbestand auch digital erfasst. Zudem hatten wir zu einigen Korpora schematische Lagepläne. Die Projektidee war die Fülle an zu einem Objekt gesammelten Einzelinformation in einem zweiten Schritt wieder auf die Fläche zu bringen, das Einzelobjekt (Grabmal) also in Relation zum räumlichen Ensemble (Friedhof) zu setzen, um auf diese Weise möglicherweise Muster und Relationen zwischen den Einzelobjekten in den Blick zu bekommen. Zudem wurde neben der philologisch-historischen, textorientierten Perspektive auf die Grabmale, ein Partner gefunden, der die Objekte aus anderer, bauhistorisch-kunstwissenschaftlicher Perspektive untersucht. Geplant war, einen Topographie-Visualisierer zu entwickeln, mit dem sich beliebige Phänomene gesteuert über ein Suchinterface auf dem interaktiven Lageplan darstellen und analysieren lassen.

Wie wurde das Projekt finanziert?

Thomas Kollatz: Gefördert wird das Projekt vom BMBF im Rahmen der Förderlinie eHumanities (Förderkennzeichen: 01UG1243A-C).

Mit welchen Partnern wurde das Vorhaben umgesetzt und wie waren die Rollen verteilt?

Thomas Kollatz: Projektpartner sind:

  • Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte, Essen

Das Steinheim-Institut vertritt im Verbund die epigraphisch, philologisch-historischen Fragestellungen.

  • Bau- und Stadtbaugeschichte, Fakultät 6, Institut für Architektur, TU Berlin

Die historische Bauforschung widmet sich der sachgemässen, quantitativ auswertbaren Aufnahme der äusseren Form der Objekte

  • Institut für Kultur und Ästhetik digitaler Medien, Leuphana Universität Lüneburg

Der Projektpartner ist für den Einsatz von HyperImage als zentrales Erfassungs- und Visualisierungsmedium für den Topographie-Visualisierer zuständig.

  • DAASI International GmbH, Tübingen

DAASI verantwortet die Schnittstelle zwischen den diversen Datenquellen, bereitet die Daten der Partner auf und konvertiert sie zwecks Import in den Topographie-Visualisierer.

Wie lautete die Fragestellung zu dem Projekt?

Thomas Kollatz: Im Vorfeld wurden eine Vielzahl von Forschungsfragen zu räumlichen Aspekten formuliert:

Raumproduktion

  • Wie verhält sich das Einzelobjekt zum lokalen, räumlichen Ensemble der Einzelobjekte und dem weiteren Umfeld? Lassen sich fachspezifische Erkenntnisse in der Raumproduktion vor Ort wiederfinden?
  • Sind unterschiedliche Beerdigungsstrategien (Cluster) erkennbar?
  • Werden separate Gruppenfelder gebildet z.B. für Wöchnerinnen, Kinder, Unverheiratete, Ehepaare, Opfer von Epidemien (Pest, Cholera), Weltkriegsgefallene, Suizide?
  • Gibt es visuelle Bezüge zwischen Familien/Ehepartnern bei chronologischer Beerdigung (identische Gestaltung der verwendeten Ornamentik und Symbolik, wurde derselbe Steinmetz beauftragt)?
  • Wie wurde der Friedhof in zeitlicher Perspektive belegt?
  • Verhältnisse bei von mehreren Gemeinden genutzten Verbandsfriedhöfen (bis zu 25 bestattende Gemeinden in Franken)?
  • Wie ist das Grabmal positioniert? Hat die Position und Ausrichtung religiöse oder repräsentative Gründe (Ausrichtung gegenüber den Himmelsrichtungen, Sichtbarkeit von bestimmten Punkten etc.)?

Makroebene

  • Lassen sich auf Makroebene (überregional, wie Herkunft der Bestatteten, Vergleichsbeispiele anderer Friedhöfe) zu gewissen Zeitpunkten Typologien durch Bauform und Material (Sandstein, Muschelkalk, dunkles Hartgestein etc.) bzw. Inschrift erkennen, die auf familiäre, soziale, religiöse und topographische Herkunft zurückzuführen sind? Sind dadurch Migrationbewegungen der jeweiligen Gesellschaft in den Objektensemblen ablesbar? (Sepharden, Aschkenasen, Herkunft aus Ost- oder Südeuropa, bestimmte Familienverbände etc.)? Ist die Form des Grabmales an den sozialen oder religiösen Status gebunden (bestimmte Grabmalformen für Rabbiner etc.)? Lässt sich ein Zusammenhang zwischen dem Wandel formaler Aspekte des Grabmales aus dem sozialen und religiösen Wandel nachweisen (Veränderung von Grabmalmoden durch Zuwanderergruppen)? Wie funktioniert die Interaktion zwischen jüdischer und nicht-jüdischer Sepulkralarchitektur?

Epigraphik

  • Sind idiomatische eulogische Formulierungen an bestimmte Positionen/Felder gebunden?
  • Erlaubt die Umgebung eines undatierten Einzelobjektes Hinweise auf dessen zeitliche Einordnung?

Bau- und Kunstgeschichte

  • Durch welche Kriterien lassen sich Grabsteintypologien abgrenzen (Bautyp und Aufbau, Form bestimmter Bauteile, Art der Fügung, Materialität etc.)? Entwicklung der Grabsteingestaltung (Grabmaltypologie): Welche Typen dominieren die Grabsteinlandschaft und welche werden nur sporadisch verwendet? Inwiefern hat das Grabmal selbst symbolische Bedeutung? Woher stammen die Vorbilder für bestimmte Grabmaltypen? Ermöglichen bestimmte Materialien spezifische formale Ausbildungen?
  • Industrie- und handwerksgeschichtlich: Woher stammen die Materialien? Welche Steinmetze waren wann, an welchen Grabfeldern und -stellen tätig? Welche Entwicklungen und Regelmäßigkeiten der Anwendungen in Bearbeitungsmethoden (z.B. geätzt, bossiert, usw.) können festgestellt werden? Handelt es sich um Handwerker oder schon Industriebetriebe? Gab es fertige Rohlinge oder handelt es sich um Einzelstücke?

Denkmalpflege

  • Welche Natursteinarten wurden wann verwendet und welche Natursteingrabmale sind daher anfälliger als andere? Verursachen bestimmte Grabmaltypen aufgrund ihrer spezifischen Fügung bestimmte Schadensmuster (mehrteilige und einteilige Grabmaltypen, Art der Verbindungen)? Bei welchen Grabmalen ist welcher Restaurierungsaufwand angemessen (Material, Bautyp, Standsicherheit)? Welche Maßnahmen (z.B. Freilegen der Steine) sind an welchen Grabmalen schädlich, an welchen förderlich?
  • Restaurierung: Wo besteht akuter Handlungsbedarf (Wichtige Frage für die in der Regel beteiligten Denkmalbehörden und die allgemeine Zugänglichkeit des Friedhofes): Können Humusschichten, Flechten, Moose zu einem konstanten Milieu beitragen, das längeren Erhalt der Sediment- und metamorphen Gesteine ermöglicht? Sind abgedeckte und am Boden liegende Grabsteine besser erhalten?
  • Welche Informationen und Zusammenhänge sind für die “museumspädagogische” Vermittlung geeignet? Wie müssen die komplexen Informationszusammenhänge für eine Site-Management-System bzw. Besucherinformationssystem aufbereitet und ausgewählt werden?

Interdisziplinär

  • Wie funktioniert das Zusammenspiel von Inschriftentext sowie Grabmalform bzw. Anordnung der Symbolik? Besteht ein Zusammenhang zur formalen Anordnung oder dem Inhalt der Inschrift? Wie lässt sich ein Zusammenhang quantitativ bzw. qualitativ nachweisen?
  • Wurden Symbole zu allen Zeiten durchgängig verwendet? In welchem Verhältnis stehen jüdische, christliche und antike Symbole und Ornamente zueinander? Beispiel: Grabsteine von Kohanim (Priesterfamilien) können visuell durch das Symbol der segnenden Hände gekennzeichnet werden. Dies muss aber nicht so sein. Häufig genügt die sprachliche – durch Namen oder idiomatische Ausdrücke ("Krone der Priesterschaft" etc.) vorgenommene Differenzierung. Visualisierung des textlichen und/oder kunstwissenschaftlichen Befundes kann zur Klärung beitragen. Zum Beispiel auch: Ab wann gilt ein sechszackiger Stern als Symbol der Religions-/​Ethnienzugehörigkeit (Davidstern) und nicht mehr als Namenssymbol (David) oder reines Schmuckelement?

Warum wurden digitale Methoden gewählt?

Mit analogen Mitteln lässt sich mit erheblichem Aufwand gewiss auch ein statischer Plan erstellen, der allerdings jeweils für genau eine Fragestellung genutzt werden kann. Für die Fülle an raumbezogenen Fragestellungen war allerdings ein digitaler, interaktiver, frei bespielbarer Lageplan erforderlich.

Wie wurden die Daten erhoben?

Thomas Kollatz: Die Daten lagen zum teil schon vor im strukturierten Format EpiDoc: TEI XML für epigraphische Daten. Allerdings war TEI XML für die feingranulare Beschreibung der Kunstwissenschaft und historischen Bauforschung, die sich der äusseren Form der Grabmale unzureichend, so dass im Rahmen des Projektes ein eigenes, prototypische XML Auszeichnungmodell für Objektformen entwickelt wurde.

Welche Tools haben Sie ausgewählt und warum? Thomas Kollatz: Für den Topographie-Visualiser haben wir die Open-Source Software HyperImage verwendet, die in den Kunstwissenschaften vielfach Verwendung findet. Im Projekt haben wir diese Software weiterentwickelt und mit Hilfe einer LDAP-Datenbank mit einem Search-Interface verbunden. Auf diese Weise kann der Lageplan beliebig je nach Fragestellung gefüllt werden.

Wie verlief die Analyse?

Thomas Kollatz: Die meisten der im Vorfeld formulierten Forschungsfragen liessen sich mit dem Topographie-Visualisierer klären. Besonders ertragreich war die interdisziplinäre Zusammenarbeit zwischen Epigraphik und Bauforschung.

Wie wurden die Ergebnisse publiziert?

Thomas Kollatz: Search-Interface und Topographie-Visualizer werden online zugänglich sein. Sämtliche Projektberichte stehen auf der Projekthomepage. Zudem ist die Veröffentlichung der Projektergebnisse in den DARIAH Working Papers geplant.

Weitere Informationen zum Projekt: https://dev2.dariah.eu/wiki/display/RIRPUB/RiR

Björn Ommer und Peter Bell: Analyse kunsthistorischer Bilddatensätze

Björn Ommer, Professor für Computer Vision der Universität Heidelberg und Direktor des Heidelberg Collaboratory for Image Processing (HCI) und Peter Bell, promovierter Kunsthistoriker und wie Ommer WIN-Kollegiat der Heidelberger Akademie der Wissenschaften, koordinieren seit 2011 gemeinsam bildwissenschaftliche Projekte an der Schnittstelle zwischen Kunstgeschichte und Computer Vision.

Passion Search Prototype of an unrestricted image search of the crucifixion: http://hci.iwr.uni-heidelberg.de/COMPVIS/projects/suchpassion/

Wie ist die Idee zu dem Projekt entstanden ?

Peter Bell: Prof. Ommer und Prof. Liselotte Saurma begannen im Rahmen der Exzellenzinitiative eine interdisziplinäre Zusammenarbeit, um die Forschungen beider Bildwissenschaften zu verknüpfen.

Wie lautete die Fragestellung zu dem Projekt?

Peter Bell: Mittelalterliche Buchmalerei mit wiederkehrenden Motiven sollte anhand von Algorithmen erschlossen werden. In Folgeprojekten kamen Fragen zur nonverbalen Kommunikation in Bildern (Gesten, symbolische Kommunikation) und grundlegende Überlegungen zur kognitiven und semantischen Erschließung von kunst- und architekturhistorischen Datensätzen auf.

Wie wurde das Projekt finanziert?

Peter Bell: Die Projektgelder kamen aus Mitteln der Exzellenzinitiative (Frontier-Projekte), dem Juniorprofessorenprogramm des MWK BaWü und der Heidelberger Akademie der Wissenschaften (http://hci.iwr.uni-heidelberg.de//COMPVIS/projects/). Ein DFG-Projekt in Kooperation mit Prometheus ist in Planung. Eng arbeiten wir außerdem mit dem Arbeitskreis digitale Kunstgeschichte zusammen. Bei jedem Projekt ist circa ein halbes Jahr Vorlauf gewesen, viele Projekte bauen dabei aufeinander auf (nicht nur aus dem Bereich der Digital Humanities sondern auch von Seiten der informatischen Projekte).

Mit welchen Partnern wurde das Vorhaben umgesetzt und wie waren die Rollen verteilt?

Peter Bell: Im ersten Frontier Projekt war Prof. Saurma Partnerin für die Architektur gewannen wir Prof. Hesse. Seit meinem Einstieg in das Projekt 2011 lag die Konzeption und Organisation der Projekte bei Björn Ommer und mir, unterstützt wurden wir von nahezu allen DoktorandInnen der Gruppe (insb. Takami, Monroy, Arnold) und anfangs dem Postdoc J. Schlecht.

Warum wurden digitale Methoden gewählt?

Peter Bell: Die digitalen Methoden bzw. die Zusammenarbeit mit der Informatik war von Seiten der Kunstgeschichte angeraten, da die wachsenden Bilddatenbanken kaum textbasiert hinreichend erschlossen werden können. Für die Computer Vision stellten kunsthistorische Datensätze eine interessante und skalierbare Herausforderung dar.

Wie wurden die Daten erhoben?

Peter Bell: Die Daten wurden unter anderem von der Universitätsbibliothek Heidelberg zur Verfügung gestellt (Palatina-Handschriften, Sachsenspiegel, Architekturtraktate). Jüngst stellte das Prometheus Bildarchiv (Köln) mehrere tausend Kreuzigungsdarstellungen zur Verfügung, um die Performanz der Algorithmen zu testen.

Welche Tools haben Sie ausgewählt und warum?

Peter Bell: Die Computer Vision Algorithmen wurden in Matlab programmiert und teilweise zu Test- und Forschungszwecken mittels eines PHP-Webinterfaces einfach bedienbar gemacht. Aufgrund der Komplexität kunsthistorischer Bilddatensätze sollte nicht eine bestehende Lösung adaptiert werden, sondern informatische Grundlagenforschung anhand der Datensätze durchgeführt werden.

Wie verlief die Analyse?

Peter Bell: Zur Analyse wurde in fünfzehn verschiedenen Testdatensätze unterschiedliche Objekte und Regionen gesucht und einige ähnliche Bilder in aufwendigeren Analysen im Detail verglichen.

Wie wurden die Ergebnisse publiziert?

Peter Bell: Die Ergebnisse wurden in Zeitschriften und Konferenzbänden publiziert, dabei wurde Wert auf eine Publikation in beiden Fächern gelegt. Die im Projekt entwickelte Bildsuche soll außerdem im Prometheus Bildarchiv genutzt werden.

Weitere Informationen

Heidelberg Collaboratory for Image Processing. Projekte: http://hci.iwr.uni-heidelberg.de/COMPVIS/projects/

Peter Bell, Joseph Schlecht, and Björn Ommer: Nonverbal Communication in Medieval Illustrations Revisited by Computer Vision and Art History, in: Visual Resources: An International Journal of Documentation (Special Issue: Digital Art History), 29:1-2, S. 26-37, 2013.

Peter Bell and Björn Ommer: Training Argus, Kunstchronik 68(8): pp. 414-420, August 2015

Antonio Monroy, Peter Bell and Björn Ommer: Morphological analysis for investigating artistic images, in: Image and Vision Computing 32(6), pp. 414-423, 2014.

Antonio Monroy, Peter Bell, and Björn Ommer: Shaping Art with Art: Morphological Analysis for Investigating Artistic Reproductions, in: ECCV'12 (VISART), Springer, 2012, pp. 571-580.

Masato Takami, Peter Bell and Björn Ommer: Offline Learning of Prototypical Negatives for Efficient Online Exemplar, in: Proceedings of the IEEE Winter Conference on Applications of Computer Vision, pp. 377-384, 2014.

Masato Takami, Peter Bell and Björn Ommer: An Approach to Large Scale Interactive Retrieval of Cultural Heritage, in: Proceedings of the EUROGRAPHICS Workshops on Graphics and Cultural Heritage, EUROGRAPHICS Association, 2014.


Andrea Rapp: TextGrid - ein Virtueller Forschungsverbund

Andrea Rapp ist Professorin für Germanistische Computerphilologie und Mediävistik an der TU Darmstadt, sie kooperiert in zahlreichen Projekten an der Schnittstelle zwischen Philologie, Informatik und Forschungsinfrastruktur. 2005 initiierte sie mit 10 weiteren Partnern das Projekt TextGrid - Digitale Forschungsumgebung für die Geisteswissenschaften.

Das TextGridLab als digitaler Werkzeugkasten für geisteswissenschaftliche Forschung. Das TextGridLab dient hier als Werkzeugkasten bei der Erstellung einer kommentierten digitalen Edition. Mit dem Text-Bild-Link-Editor können beispielsweise Faksimiles transkribiert und mit Informationen in XML angereichert werden. Die eingescannten Originaltexte können dann mit der Transkription verknüpft werden. http://www.textgrid.de

Wie ist die Idee zu dem Projekt entstanden?

Andrea Rapp: TextGrid ist ein Projekt, das digitale Forschungsinfrastruktur konzipiert, entwickelt und nachhaltig verfügbar hält, insofern ist es nicht ganz vergleichbar mit klassischen geisteswissenschaftlichen Forschungsprojekten. Einer unserer zentralen Impulse war damals, dass wir Philologie mit digitalen Mitteln betreiben wollten und dafür nicht die optimalen, standard-basierten OpenSource-Werkzeuge und -Quellen zur Verfügung hatten, die wir brauchten. Hier hat sich natürlich in der letzten Dekade sehr viel getan, dennoch ist dieser Bedarf immer noch groß oder wächst sogar mit steigender Akzeptanz digitaler Verfahren.

Wie lautete die Fragestellung zu dem Projekt?

Andrea Rapp: Die Initiativgruppe bestand in erster Linie aus PhilologInnen und TextwissenschaftlerInnen mit einem starken Fokus auf der Editionsphilologie, in der kollaboratives Arbeiten und digitale Werkzeuge bereits vergleichsweise breit im Einsatz waren, jedoch viele Insellösungen entstanden waren. Unsere Idee war jedoch, konsequent auf OpenSource und offene Standards zu setzen. In den späteren Phasen wurde neben der Tool-Entwicklung das Community-Building und die Nutzerberatung und -schulung immer wichtiger. Als ganz zentral hat sich das TextGrid Repository herausgestellt, das derzeit gemeinsam mit dem DARIAH-DE Repository gepflegt und weiterentwickelt wird. Inhalte kommen durch die Digitale Bibliothek und durch die Publikationen der NutzerInnen laufend hinein.

Wie wurde das Projekt finanziert? Falls es Förderanträge gab, wie gestaltete sich der Vorlauf?

Andrea Rapp: Die D-Grid-Initiative des Bundesministeriums für Bildung und Forschung (BMBF) bot uns damals die Möglichkeit, unsere Pläne in einem recht ungewöhnlichen Kontext zu konkretisieren: Als einziges geisteswissenschaftliches Projekt unter natur- und ingenieurwissenschaftlichen Vorhaben haben wir viel von den Forschungskulturen dieser Disziplinen und ihrer VertreterInnen profitiert, denn für sie ist der Zugang zu digtaler Infrastruktur etwas Selbstverständliches - vielleicht so wie für uns die Bibliothek oder der Zugang zu einem Archiv etwas Selbstverständliches sind. Das BMBF bot uns die Chance, die TextGrid-Infrastruktur in drei Förderphasen aufzubauen. Vor allem beim ersten Antrag galt es, sich im ungewohnten Kontext der Infrastrukturentwicklung zurechtzufinden und die Vorgaben der D-Grid-Initiative zu berücksichtigen, was durch die Koordination der SUB Göttingen aber gut an alle Partner vermittelt wurde.

Mit welchen Partnern wurde das Vorhaben umgesetzt und wie waren die Rollen verteilt?

Das Textgrid-Repository: http://www.textgridrep.de/

Andrea Rapp: TextGrid wurde und wird von einem großen Konsortium getragen. In den drei Förderphasen wechselte jeweils ein wenig die Zusammensetzung. Beteiligt waren die folgenden Institutionen mit spezifischen Anliegen und Kompetenzen, die sie einbrachten:

  • Berlin-Brandenburgische Akademie der Wissenschaften (Nutzerbefragungen und Akzeptanz)
  • Technische Universität Berlin (Soziologie, Wissenschaftliche Begleitforschung, Monitoring)
  • DAASI International GmbH (Basistechnologie, Authentifizierungsinfrastruktur)
  • Technische Universität Darmstadt (TextGrid Laboratory, Schulungen, Beratung)
  • Musikwissenschaftliches Seminar der Universität Paderborn/Detmold (Musikwissenschaftliche Tools)
  • Salomon Ludwig Steinheim-Institut für deutsch-jüdische Geschichte Duisburg/Essen (Tools)
  • Gesellschaft für Wissenschaftliche Datenverarbeitung Göttingen mbH (Basistechnoligie, TextGrid Repository)
  • Niedersächsische Staats- und Universitätsbibliothek Göttingen (Verbundkoordination, TextGrid Repository)
  • Institut für deutsche Sprache in Mannheim (Linguistische Tools und Korpora)
  • Technische Universität Kaiserslautern (OCR-Tool)
  • Max-Planck-Digital Library (Tools)
  • Max-Planck-Institut für Wissenschaftsgeschichte, Berlin (Tools, Usability, Prozessorganisation)
  • Münchener Zentrum für Editionswissenschaft MüZE (Glossen-Editionstool)
  • Saphor GmbH (Basistechnologie)
  • Universität Trier (TextGrid Laboratory, Wörterbuchnetz)
  • Hochschule Worms (TextGrid Laboratory, Tests)
  • Julius-Maximilians-Universität Würzburg (TextGrid Laboratory, Digitale Bibliothek)

Die Gruppe hat ferner einen Verein gegründet, um TextGrid weiter gemeinsam betreuen und weiterentwickeln zu können.

Wie wurden die Ergebnisse publiziert?

Andrea Rapp: Das Laboratory als OpenSource Software kann über die TextGrid-Homepage frei heruntergeladen werden. Das Repository bietet eine umfangreiche XML/TEI-konforme Sammlung zumeist deutschsprachiger Kanonliteratur zur freien Nachnutzung an, die zugleich mittels linguistischer Tools analysierbar ist (hier wird auf die Digivoy Suite zurückgegriffen). Zahlreiche Reports, Aufsätze und Bücher finden sich auf der TextGrid-Homepage verzeichnet und zumeist auch als Download verfügbar; weitere Informationen gibt es im von TextGrid mitbetriebenen DHd-Blog, in verschiedenen Mailinglisten, im YouTube-DHd-Kanal oder über Twitter @TextGrid.

Weitere Informationen zu den Projekten

http://www.textgrid.de

http://www.textgridrep.de

http://www.dhd-blog.org

https://www.youtube.com/user/dhdkanal

Patrick Sahle: Altägyptisches Totenbuch - ein digitales Textzeugenarchiv

Patrick Sahle ist Geschäftsführer des Cologne Center for eHumanities (CCeH). Dort betreut er im Rahmen einer Kooperation zwischen der Universität zu Köln und der Nordrhein-Westfälischen Akademie der Wissenschaften und der Künste (AWK) auch die Umstellung schon länger laufender Akademievorhaben auf digitale Arbeits- und Publikationsformen. Am CCeH ist in Zusammenarbeit mit der Abteilung für Ägyptologie an der Universität Bonn in den Jahren 2011-2012 mit dem "Altägyptischen Totenbuch - ein digitales Textzeugenarchiv" die digitale Präsentation des damit zuende gehenden Langzeitvorhabens erarbeitet worden.

Das altägyptische Totenbuch: Ein digitales Textzeugenarchiv http://totenbuch.awk.nrw.de/

Wie ist die Idee zu dem Projekt entstanden?

Patrick Sahle: Die Bonner Arbeiten zum Totenbuch (seit 1994) umfassten schon früh eine Datenbank zur Objektbeschreibung sowie ein Bildarchiv. In den späten 00er Jahren wurde deutlich, dass eine "Publikation" der gesamten Projektergebnisse am besten online erfolgen sollte. Das digitale Abschlussprojekt ergab sich damit fast zwangsläufig aus dem inhaltlichen Forschungs- und Erschließungsprojekt.

Wie lautete die Fragestellung zu dem Projekt?

Patrick Sahle: Das Akademievorhaben selbst sammelte alle relevanten Informationen zu allen bekannten Überlieferungsträgern zum altägyptischen Totenbuch (einem Textkorpus von Sprüchen) und leistete hier vor allem Erschließungsarbeit, z.B. in der Identifikation der einzelnen Texte auf den Objekten. Im Digitalisierungsprojekt ging es um die Frage, wie man die komplexen Informationen und das Bildarchiv auf die beste Weise dem forschenden Fachpublikum und einer breiteren interessierten Öffentlichkeit verfügbar machen und damit die weitere Beschäftigung mit dem Material fördern könnte.

Wie wurde das Projekt finanziert?

Patrick Sahle: Im Rahmen einer Digitalisierungsinitiative hat die Union der Akademien der Wissenschaften in Deutschland den einzelnen Akademien zusätzliche Mittel für die Umstellung schon länger laufender Vorhaben auf digitale Arbeits- und Publikationsformen zur Verfügung gestellt. Diese Mittel konnten für das Projekt genutzt werden nachdem ein entsprechender Projektplan entwickelt worden war.

Mit welchen Partnern wurde das Vorhaben umgesetzt und wie waren die Rollen verteilt?

Patrick Sahle: Das Vorhaben war eine ganz typische Zusammenarbeit zwischen einer fachwissenschaftlichen Seite und einem DH-Kompetenzzentrum. Für die fachwissenschaftliche Seite der Abteilung für Ägyptologie der Universität Bonn hat vor allem Marcus Müller, aber auch etliche weitere Projektmitarbeiter an der Entwicklung des Projekts, an der Diskussion zum Datenmodell und zum Portal teilgenommen. Neben der inhaltlichen Forschungsarbeit haben die Fachwissenschaftler aber auch die Bilddigitalisierung und die Dateneingabe selbstständig durchgeführt. Auf der DH-Seite haben sich am CCeH Patrick Sahle, Ulrike Henny, Jonathan Blumtritt und Franz Fischer um die Modellentwicklung, die Datenpflege (Übernahme, Konversion, Bereinigung, Anreicherung), die Systementwicklung (Server, Datenbank, Abfrageskripte, Nutzerverwaltung, Oberfläche) und die Visualisierungen gekümmert. Um zu einer guten Publikation zu kommen, war außerdem ein Designbüro für den Portalentwurf beteiligt.

Warum wurden digitale Methoden gewählt?

Patrick Sahle: Eine Publikation des gesammelten Wissens und der Abbildungen in Buchform wäre offensichtlich weder vom Umfang noch von der Funktionalität her sinnvoll gewesen. Nur die digitale Publikation erlaubte vielfältige Browse- und Suchzugänge, zusätzliche Visualisierungen von Zusammenhängen und eine permanente Weiterbearbeitung des Wissens.

Wie wurden die Daten erhoben?

Patrick Sahle: Die Daten wurden von den ägyptologischen FachwissenschaftlerInnen zunächst in einer Filemaker-Datenbank erhoben. Das Modell wurde im Digitalisierungsprojekt in XML überarbeitet und verfeinert. Die Altdaten wurden dann migriert, homogenisiert, überarbeitet und von den FachwissenschaftlerInnen weiter gepflegt. Zusätzlich wurden nebenläufige "Wissensbasen" angelegt, z.B. zu Materialgruppen, Datierungen, Geographica etc.

Welche Tools haben Sie ausgewählt und warum?

Patrick Sahle: Die gesamte Datenhaltung beruht auf einem lokalen XML-Dialekt. Man hätte lieber einen Standard verwendet, allerdings lag kein passender vor, es bestand bereits ein projektinternes Modell und die Zeit drängte. Die Daten wurden (und werden) in einer XML-Datenbank (eXist) verwaltet. Die Datenpflege erfolgte direkt im oXygen-Text-Mode, der mit der Datenbank verbunden war. Die bereits vorhandenen Abbildungen der Stücke wurde mit einfachen Scannern digitalisiert weil eine Faksimilierung nicht zu den eigentlichen Zielen des Projektes gehörte. Weitere Abbildnugen wurden mit digitalen Kameras vor Ort angefertigt.

Wie verlief die Analyse?

Patrick Sahle:Das bestehende Filemaker-Modell wurde übernommen, kritisch gesichtet und in der Diskussion zwischen den Fachwissenschaftlern und den DH-Spezialisten auf Basis von XML weiter entwickelt.

Wie wurden die Ergebnisse publiziert?

Patrick Sahle: Das Ergebnis ist ein digitales Portal. Die XML-Datenbank wird mittels xQuery abgefragt und liefert on the fly generierte Webseiten zurück. Aus rechtlichen Gründen gibt es ein Rollenmodell, das bestimmte Abbildungen nur einem registrierten Nutzerkreis zugänglich macht.

Was sind erwähnenswerte Besonderheiten im Projekt?

Patrick Sahle: Die xQuery-Abfragen der Datenbank wurden auch genutzt, um durch Visualisierungen einen besseren Überblick über die komplexen Daten zu schaffen. Besonderer Wert wurde auf die Nachhaltigkeit des Projekt gelegt. Eine der Grundlagen dafür ist eine enge Verbindung zur weiteren Community der Altertumskunde: Hierzu werden z.B. die einigermaßen kanonischen "Trismegistos"-Nummern als Identifikatoren der Objekte und zur Herstellung permanenter Links verwendet oder Dienste von Pelagios/Pleiades eingebunden. Das Projekt ist auch ein Testfall dafür, wie zuende gegangene Forschungsprojekte weiterleben können: Beim Totenbuch besteht eine umfassende Eingabemaske weiter, mit der auch Jahre nach Projektende die Daten korrigiert und weiter gepflegt werden können - was tatsächlich manchmal geschieht.

Weitere Informationen zu den Projekten

Startseite: http://totenbuch.awk.nrw.de/

Beispiel für ein Objekt, mit Permalink: http://totenbuch.awk.nrw.de/objekt/tm57143

Beispiel für Informationsvisualisierung: http://totenbuch.awk.nrw.de/uebersicht/sprueche

Hannah Busch: Handschriften analysieren mit eCodicology

Exemplarische Layoutmerkmale einer mittelalterlichen Handschriftenseite. Quelle: Projekt eCodicology.. http://www.ecodicology.org/index.php?id=4

Hannah Busch ist wissenschaftliche Mitarbeiterin am Trier Center for Digital Humanities. Dort arbeitet sie im Verbundprojekt eCodicology, das vom BMBF 2013-2016 gefördert und gemeinsam mit der Technischen Universität Darmstadt (Projektkoordinator) und dem Karlsruher Institut für Technologie durchgeführt wird.

Wie ist die Idee zu dem Projekt entstanden?

Hannah Busch: In den letzten 10 Jahren wurden viele mittelalterliche Handschriftenbestände ins digitale Medium überführt und einer breiten Öffentlichkeit über das World Wide Web zugänglich gemacht. Das Projekt eCodicology entstand aus der Überlegung hinaus, welcher weitere Nutzen – neben der virtuellen Rekonstruktion mittelalterlicher Bibliotheken, deren inhaltlicher Aufbereitung und Präsentation – aus diesen Daten gezogen werden kann.

Visualisierung der Layoutmerkmale eines Teils des St.Mattheiser Bestandes

Wie lautete die Fragestellung zu dem Projekt?

Hannah Busch: Ziel von eCodicology ist die Entwicklung, Erprobung und Verbesserung von neuen Algorithmen, die makro- und mikrostrukturelle Gestaltungsmerkmale auf mittelalterlichen Handschriftenseiten erkennen, um deren Metadaten anzureichern. Die Beschreibungen aus früheren Handschriftenkatalogen können auf diese Weise automatisiert ergänzt und erweitert werden, beispielsweise waren bisher häufig nur besonders nennenswerte Miniaturen lokalisiert, erfasst und beschrieben.

Zusätzlich können mit Hilfe der Bildung von Korrelationen zwischen den Metadaten aus den Handschriftenbeschreibungen (z.B. Datierung, Textgattung, Beschreibstoff) und automatisch erhobenen Layoutdaten weitere Fragen zur Entdeckung verborgener Zusammenhänge zwischen Handschriften an den Bestand von St. Matthias gerichtet werden. Zu den vielversprechendsten Ansätzen zählen: 

  • Die Entdeckung von Abhängigkeiten zwischen beschrifteten/freien Flächen und dem Format der Handschrift 
  • Die Ermittlung des Verhältnisses von Bildraum und Textraum auf den Seiten 
  • Das Aufspüren von Bezügen zwischen Textinhalt und Gestaltung der Seiten 
  • Das Zusammenführen von Fragmenten anhand der Seitengestaltung 
  • Die Identifikation von Schreiberhänden anhand der Seitengestaltung

Warum wurden digitale Methoden gewählt?

Hannah Busch: Das Festhalten von äußeren Merkmalen auf jeder einzelnen Kodexseite aus einem geschlossenen Handschriftenbestand kann für die Beantwortung bestimmter Forschungsfragen sinnvoll sein, für die eine sehr große Datenmenge systematisch ausgewertet werden muss. Mit einer rein händischen Vorgehensweise könnten z.B. diachrone Entwicklungen im Layout des St. Mattheiser Bestandes nur unter großen Anstrengungen verfolgt werden. Eine abschließende statistische Auswertung erlaubt die Analyse der Handschriftenseiten auf einer empirischen Basis. Regelmäßigkeiten (Muster) bzw. Veränderungen der Layoutkonstellationen lassen sich auf diese Weise aufspüren. 

Im Projekt eCodicology kommt eine Forschungsmethode zum Einsatz, die mit dem in der Computerphilologie etablierten Verfahren des distant reading vergleichbar ist. Nicht das detaillierte und intensive close reading einzelner Bücher steht im Vordergrund. Stattdessen soll eine quantitative Gesamtschau über alle Seiten des mittelalterlichen Buchbestandes der Abtei St. Matthias erfolgen, und zwar hinsichtlich der formalen Gestaltung der Handschriftenseiten. Eine solche Analyse erlaubt es dem Kodikologen, das Material aus der Vogelperspektive zu betrachten. Der subjektive Blick des Handschriftenforschers kann auf diese Weise objektiviert werden. 

Wie wurden die Daten erhoben?

Hannah Busch: Datengrundlage bilden die im Projekt "Virtuelles Skripotorium St. Matthias" erstellten Digitalisate von rund 440 Handschriften der mittelalterlichen Bibliothek der Abtei St. Matthias in Trier. Durch Verfahren der Bildbearbeitung werden die 170.000 Handschriftenseiten zunächst vorprozessiert, um eine Vergleichbarkeit zu gewährleisten. Für die automatisierte Extraktion und Vermessung der Layoutmerkmale in den Digitalisaten werden spezielle Algorithmen angepasst und bei Bedarf entwickelt. Für eine Untersuchung wurden einfache Parameter wie Seitengröße, Schriftraum, Bildraum, Abstände und Ränder (freigelassener Raum), graphische Elemente, Anzahl der Textspalten sowie Anzahl der Textzeilen identifiziert, für die v.a. ihre Ausdehnung (Höhe x Breite) sowie Anzahl und Position (Koordinaten) auf jeder Seite verlässlich gemessen werden können. 

Welche Tools haben Sie ausgewählt und warum?

Hannah Busch: Die Layoutvermessung wird mit ImageJ durchgeführt, Plugins erlauben eine einfache Anpassung des Workflows an neue Anforderungen und Anwendungsfälle. Zur Speicherung der Ergebnisse wird TEI P5 konformes XML verwendet, das im Bereich der Handschriftendigitalisierung bereits etabliert ist und daher eine hohe Kompatibilität mit den Metadaten anderer Digitalisierungsprojekte verspricht. D3 (Data Driven Documents) bietet umfangreiche Visualisierungsfunktionalitäten, die vielfältig anwendbar und ebenfalls leicht adaptierbar sind. 

Wie verläuft die Analyse?

Hannah Busch: Die bei der Bildverarbeitung gewonnenen Daten zu den Layoutmerkmalen werden als sogenannte XML-Tags automatisch in den Metadaten abgelegt. Die festgehaltenen Werte lassen sich anschließend statistisch auswerten, visualisieren, zueinander in Beziehung setzen und dienen als Grundlage für neue wissenschaftliche Erkenntnisse. Während des gesamten Prozesses findet zur Verbesserung des Workflows und Beantwortung der Forschungsfragen ein reger Austausch zwischen den Standorten statt.

Das Projekt hat einen Modellcharakter, der die Nachnutzung der Ergebnisse anstrebt. Die an den Beständen von St. Matthias erprobten Algorithmen können so als Ausgangspunkt für die Untersuchung weiterer Handschriftendschriftenbestände dienen.

Wie wurden die Ergebnisse publiziert? 

Hannah Busch: Die Handschriftendigitalisate sind bereits über das Projekt „Virtuelles Skriptorium St. Matthias“ im Web frei zugänglich und auf Basis der bisherigen Katalogdaten durchsuchbar. In einem weiteren Schritt wurden die Bilddateien mit den dazugehörigen XML Dateien in das TextGrid-Repositorium eingespeist und stehen beispielsweise zur Transkription oder Bildannotation zur Verfügung. Die Ergebnisse der Recherche und statistischen Auswertung sowie Möglichkeiten zur dynamischen Visualisierung werden über das Projektportal bereitgestellt. 

Weitere Links:

http://www.ecodicology.org www.stmatthias.uni-trier.de

https://textgrid.de/

DH-Projekte in Europa

Auf Europäischer Ebene gibt es verschiedene Projekte, welche für die Geisteswissenschaften viele Anreize und Unterstützung bieten.

Hier werden virtuelle Forschungsumgebungen für verschiedene geisteswissenschaftliche Domains erstellt, Best Practice Netzwerke gebildet oder Tools und Dienstleistungen für geisteswissenschaftliches Arbeiten entwickelt. Bei EU-weiten Projekten kann man zwischen generischen Projekten und Infrastrukturprojekten unterscheiden. Beiden gemein ist, dass sie durch Konsortien aus Partnern von mindestens 3 Ländern betrieben werden.

Die Projekte verfolgen unterschiedliche Ziele und sind im ganzen Spektrum der geisteswissenschaftlichen Forschung anzutreffen. So geht es zum einem um die Digitalisierung, Aufbereitung und den Zugang von analogen Quellen als Grundlage für die geisteswissenschaftliche Forschung (z.B. Europeana Research[1]) oder um die Entwicklung spezieller digitaler Werkzeuge für die Beantwortung von Forschungsfragen und um die Formulierung von Policies und Strategien um die Nachhaltigkeit von geisteswissenschaftlichen Forschungsinfrastrukturen und den darin vorgehaltenen Forschungsdaten zu befördern (z.B. Parthenos [2]).

Weitere Beispiele für Projekte sind:

  • ENARC: The European Network on Archival Cooperation ist ein von der ICARUS4all (International Centre for Archival Research for All) Initiative betriebenes EU-Projekt mit Partnern aus hochrangigen Archiven mehrerer europäischer Staaten. Es werden sowohl Digitalisierungsvorhaben durchgeführt als auch Tools entwickelt, mithilfe derer die resultierenden Daten angereichert und präsentiert werden können. [3] 
  • Openaire: Open Access Infrastructure for Research in Europe entwickelt ein übergreifendes Suchportal zum Recherchieren und Zugreifen auf diverse Datentypen im Projektkontext. Hier findet der/die geneigte Forschende Daten aus Abschlussarbeiten, Forschungsprojekten, Projektmetadaten und Personen. [4]
  • DiXiT: Digital Scholarly Editions Initial Training Network ist ein Bildungs- und Forschungsprogramm für europäische Doktoranden und Postdoktoranden, die im Kontext von digitalen Editionen arbeiten.[5]

Während Projekte tendenziell nach einem festen Zeitraum abgeschlossen sind, streben Infrastrukturen eher eine dauerhafte Förderung -beispielsweise im Rahmen einer europäischen Organisationsform European Research Infrastructure Consortium (ERIC)- an, damit sie auch unbefristet ihre Dienstleistungen zur Verfügung stellen können. Eine Recherche über angebotene Dienste und Portale lohnt sich bei einem eigenen Projektentwurf allemal – gerade auch um potentielle Partner oder unterstützende Portale zu finden. Allerdings ist bei abgeschlossenen Projekten mitunter Vorsicht geboten, da hier der Fall auftreten kann, dass Angebote nicht mehr eingehalten werden und Software nicht mehr gepflegt und weiter entwickelt wird.[6]

Eine beispielhafte Übersicht über europäische Infrastrukturprojekte und ihre Förderung bietet die folgende Liste: 

EHRI

 "The European Holocaust Research Infrastructure"[7] ist ein Verbund aus 20 Institutionen, die aus den Bereichen Holocaustforschung, Archivwissenschaft und Digital Humanities kommen. Ziel des Projekts ist die digitale Zusammenführung verteilter archivalischer Ressourcen in einem Portal, das WissenschaftlerInnen und Interessierten Zugang zu den Materialien der Holocaustforschung bietet, diese mit Daten anreichert und auffindbar macht, damit sie mit digitalen Werkzeugen bearbeitet werden können.

ARIADNE

„Advanced Research Infrastructure for Archaeological Datasets Networking in Europe"[8] verfolgt das Ziel, vorhandene Forschungsdatenbanken in der Archäologie zusammenzuführen, um digitale Daten aus den Bereichen Archäologie und Kulturerbe auf europäischer Ebene wissenschaftlich nutzen zu können.

Das EU-Projekt bringt 24 Partner aus 13 Ländern zusammen. Diese teilen archäologische Datenbanken und Kenntnisse im Bereich der Datentechnik, um die Basis für eine pan-europäische Forschungsinfrastruktur zu schaffen. Sie soll zukünftig der archäologischen Wissenschaft wie auch dem Kulturgutmanagement von Nutzen sein. Ziele des Projektes sind, verwendete Daten- und Metadatenstandards zusammenzustellen, gemeinsame Mindeststandards zu erarbeiten und Schnittstellen zu entwickeln.  

ESFRI

steht für the European Strategy Forum on Research Infrastructures und ist ein Förderbereich der EU für nachhaltigen Zugang zu virtuellen Forschungsinfratsrukturen. Zurzeit zählen fünf pan-europäische Infrastrukturen in den Sozial -und Geisteswissenschaften (SSH - Social Science and Humanities) zu den ESFRI-Infratstrukturen[9]: DARIAH-ERIC[10], CLARIN-ERIC[11], ESS-ERIC[12], CESSDA[13], SHARE-ERIC[14]. Hier werden beispielhaft nur DARIAH und CLARIN vorgestellt.

DARIAH-ERIC

Das Digital Research Infrastructure for the Arts and Humanities (DARIAH) ERIC möchte Wissenschaftler, Werkzeuge und digitale Methoden in den Digital Humanities zusammenbringen, interdisziplinäres Arbeiten in den Geisteswissenschaften unterstützen und nachhaltige Strategien für Forschungsdaten entwickeln. 

CLARIN-ERIC

Common Language Resources and Technology Infrastructure (CLARIN) ist mit Ausnahme von DARIAH das einzige andere geisteswissenschaftliche Forschungsinfrastrukturvorhaben, welches im Rahmen der ESFRI-Roadmap von der EU bewilligt wurde. Die Nutzer der CLARIN-Infrastruktur stammen aus den Geistes- und Sozialwissenschaften und beschäftigen sich mit sprachbasierten Ausgangsdaten. Abhängig von fachlichen Vorlieben und Netzwerken kann für Forschende im Bereich der Digital Humanities CLARIN die benötigten Infrastrukturen bereitstellen. Zugrundeliegende Kernfunktionen werden häufig von CLARIN und DARIAH gemeinsam genutzt, evaluliert und vorangetrieben.

Anmerkungen

  1. Europeana Research möchte WissenschaftlerInnen den Zugang zu in der Europeana referenzierten Materialien erleichtern, damit diese als Grundlage für Forschung eingesetzt werden können. Dabei geht es um Klärung von rechtlichen Fragen und Zugangsmodalitäten. http://research.europeana.eu/
  2. http://www.parthenos-project.eu/
  3. http://enarc.icar-us.eu/
  4. Vgl. www.openaire.eu
  5. http://dixit.uni-koeln.de/
  6. Für Übersichten vgl. http://humanum.hypotheses.org/155, https://dariah.eu/about/collaboration.html, http://de.slideshare.net/dri_ireland/peter-doorn
  7. http://www.ehri-project.eu/
  8. http://www.ariadne-infrastructure.eu/
  9. https://ec.europa.eu/research/infrastructures/index_en.cfm?pg=esfri
  10. https://dariah.eu/
  11. http://clarin.eu/
  12. http://www.europeansocialsurvey.org/
  13. http://cessda.net/
  14. http://www.share-project.org/