Forschung an historischen Manuskripten wird zunehmend von technischen Disziplinen unterstützt: Multi- und Hyperspektralbildgebung unterstützt die Wiederherstellung von degradierten oder absichtlich entfernten Inhalten; spektroskopische Analysemethoden werden zur Identifizierung und Charakterisierung von Tinten, Pigmenten und Substraten eingesetzt, was wiederum Hinweise für die Rekonstruktion des Ursprungs und der Geschichte eines Manuskripts liefert.
Jede Untersuchungsrichtung erzeugt spezifische digitale Artefakte wie Bildmaterial, spektroskopische Messungen oder menschliche Analyseergebnisse. Wenn die verschiedenen Untersuchungen von unterschiedlichen Institutionen und zu verschiedenen Zeiten durchgeführt werden, existieren die erzeugten Artefakte meist unabhängig voneinander und ohne gemeinsamen Bezugsrahmen. Dadurch ist das Potenzial zur Wiederverwendung in interdisziplinärer Forschung begrenzt und ihr effektiver Lebenszyklus endet oft mit den Forschungsprojekten, in denen sie erworben wurden.
Multi-Modal Manuscript Representations (M3R) ist ein Repositorium für die Archivierung und Dissemination von Manuskriptforschungsdaten, in dem die verschiedenen digitalen Artefakte räumlich und logisch miteinander verknüpft sind. Im Hinblick auf die Langzeitarchivierung und linked open data (LOD) wird besonderer Wert auf die Verwendung etablierter und offener Standards für Daten und Metadaten gelegt. Die resultierenden virtuellen Objekte werden über technische Schnittstellen, aber auch über einen interaktiven Web-Viewer verbreitet. Somit werden die im Repositorium verfügbaren Daten langfristig nicht nur für Naturwissenschaften und technische Disziplinen, sondern auch für Forschung und Bildung in den Geisteswissenschaften zugänglich gemacht.
Abbildung 2 versucht, die konzeptionellen Ideen hinter M3R zu visualisieren. Auf der obersten Ebene beginnen wir mit dem Manuskript, einem physischen Objekt, das in einem Archiv oder einer Bibliothek aufbewahrt und inventarisiert wird - es kann in Form eines Kodex (eines „Buches“), einer Sammlung von Fragmenten oder sogar einer Rolle vorliegen. Informationen, die das gesamte Manuskript oder größere Teile davon betreffen – z.B. Provenienzinformationen, konservatorischer Zustand, Schriftmerkmale oder Transkriptionen – werden im etablierten TEI-Format gespeichert.
Das Manuskript wird in Seiten unterteilt, bei denen es sich um die Flächen handelt, die mit Text beschrieben sind. Bei Kodizes und Fragmenten entsprechen die Seiten meist den Blättern; bei Rollen oder anderen Objekten ist die Definition nicht so streng vorgegeben. In jedem Fall wird der Bereich einer Seite technisch durch ein Referenzbild definiert – in der Regel ein Naturfarbbild, das die jeweilige Oberfläche zeigt. Jedes zusätzliche Bildmaterial der Seite, z.B. multispektrale Bilder oder Elementverteilungskarten, ist mit einer 2D-Transformation ausgestattet, die die korrekte Ausrichtung zum Referenzbild definiert.
Innerhalb einer Seite können mehrere Messpunkte definiert werden: Sie enthalten Informationen über punktuelle Bereiche auf der Manuskriptoberfläche, wie z.B. spektroskopische Messungen, die an dieser Stelle durchgeführt wurden, oder die identifizierten Materialien. Die Positionen der Messpunkte werden in Pixelkoordinaten innerhalb des Referenzbildes der jeweiligen Seite angegeben.
Genau wie die genannten Informationen über das Manuskript im TEI-Format gespeichert werden, sollten Informationen über einzelne Seiten, Messpunkte und digitale Artefakte unter Verwendung etablierter und/oder offener Standards modelliert werden. Zum Beispiel werden Bilder als TIFF gespeichert, spektroskopische Messungen als JCAMP-DX und die an Messpunkten identifizierten Materialien (z.B. chemische Elemente, Tintensorten, Pigmente) über Konzepte einer Taxonomie im SKOS-Format angegeben.
Der „Klebstoff“ zur Verbindung aller zu einer bestimmten Seite gehörenden Informationen wird durch den METS-Standard bereitgestellt. Er ermöglicht die Modellierung der semantischen und räumlichen Beziehungen zwischen den einzelnen digitalen Artefakten sowie die Speicherung von Metadaten über die verwendeten Messgeräte.
Ein Prototyp-Repository, das den oben skizzierten Konzepten folgt, ist auf der GAMS-Infrastruktur der Uni Graz implementiert, einschließlich einer intuitiven grafischen Benutzeroberfläche in Form einer Website.
Auf der Website kann der Benutzer die Erkundung aus zwei Perspektiven starten: Aus einer objektzentrierten Perspektive ist der Benutzer an einem bestimmten Manuskript interessiert und findet die verschiedenen damit verbundenen digitalen Repräsentationen und Messungen; aus einer materialzentrierten Perspektive ist der Benutzer an dem Vorkommen bestimmter Tinten, Pigmente oder anderer Substanzen interessiert und findet die Manuskripte und Messpunkte, an denen sie nachgewiesen wurden. Abbildung 3 gibt einen ersten Eindruck der Möglichkeiten; jedoch sagt praktische Erfahrung mehr als tausend Bilder, und der interessierte Leser kann den tatsächlichen Prototyp ausprobieren.
Zusätzlich zu diesem benutzerfreundlichen Zugangsmodus werden technische Schnittstellen für automatisiertes Data Harvesting oder die Integration in Drittanwendungen bereitgestellt:
Im Rahmen von CIMA und der damit einhergehenden interdisziplinären Untersuchung von historischen Handschriften entsteht eine Vielfalt an Mess- und Beschreibungsdaten: diese reichen von Aufnahmen mit verschiedenen Wellenlängen (sog. Multi- und Hyperspektralbilder) über spektroskopische und mikrobiologische Materialanalysen, kodikologische und restauratorische Beschreibungen, bis hin zu Transkriptionen und philologischen Editionen.
Die Katalogisierung von Beständen erfolgt in Archiven und Bibliotheken über bibliothekarische Regelwerke. Diese müssen im Laufe der Zeit an veränderte Gegebenheiten angepasst und entsprechend modifiziert werden. Im Teilprojekt RNABle wurde der Prototyp eines solchen Programms fertiggestellt und weitere Funktionalitäten erweitert.
Die Digitale Erinnerungslandschaft Österreichs (DERLA) ist ein Projekt zur Erforschung von österreichischen Erinnerungsorten und -zeichen für die Opfer sowie die Orte des Terrors des Nationalsozialismus. Die Ergebnisse werden auf einer interaktiven und multimodalen Erinnerungslandkarte zusammengeführt, die neben Filter- und Suchfunktionen der niederschwelligen Vermittlung im Bildungsbereich dient.
Die Bedeutung der Digital Humanities spiegelt sich nicht zuletzt im wachsenden Angebot an einschlägigen Ausbildungen wider. Mehrere Projektpartner bereiten Kurse auf und stellen diese dauerhaft zur Verfügung. Diese Unterlagen sind für das Selbststudium konzipiert und richten sich an Lehrende wie Studierende.
An der Paris Lodron Universität Salzburg wurde im Rahmen von DiTAH eine Reihe an längerfristigen Vorhaben der Digital Humanities (u.a. eine Ringvorlesung, ein Wissenschaftsblog, der Umgang mit Repositorien) umgesetzt und dabei auf die nachhaltige Kommunikation mit internen und externen Partnern geachtet.
Im Teilprojekt "Digi 16" wurden bibliografische Daten zu einer historischen Buchsammlung der Universität Graz aus dem 16. Jahrhundert nach aktuellen Standards erstellt und durch objektspezifische Merkmale ergänzt sowie buchhistorisch ausgewertet.
Bei FERCAN handelt es sich um die digitale Edition keltischer Götternamen in lateinischen Inschriften. Neben einer ausführlichen Dokumentation und interaktiven Landkarten sind die einzelnen Datensätze mit externen Datenbanken verknüpft und erlauben auf diese Weise eine umfangreiche wissenschaftliche Auseinandersetzung.
Der über 13.000 Schriftstücke umfassende Briefwechsel des Publizisten Ludwig von Ficker (1880-1967) wurde in diesem Projekt transkribiert, semantisch angereichert (Annotation) und kommentiert. Damit liegt ein umfangreiches Korpus regionalhistorisch relevanter Briefe inkl. Orts- und Namensregister vor, das sich gezielt durchsuchen lässt.
Im Zuge der Digitalisierung werden immer mehr Forschungsgegenstände (Texte, Bilder, Objekte) digital zugänglich. Um diese wissenschaftlich zu verwerten sind semantische Informationen (Metadaten) notwendig. Im Teilprojekt "Foto-Datenbank" wurden bestehende Digitalisaten in einem mehrstufigen Verfahren durch eine formale Repräsentation (Metadaten basierend auf einer Ontologie) ergänzt, die eine wissenschaftliche Bearbeitung erst ermöglichen.
Das virtuelle Gipsmuseum umfasst die Digitalisierung der denkmalgeschützten Sammlungsräumlichkeiten sowie die historischen Gipsabdrücke der Universität Graz in Form von 3D-Modellen. Die Präsentation erfolgt zusammen mit einer Dokumentation der Modelle im Rahmen eines eigens dafür erstellten Portals, das zur Sichtbarkeit einer kompakten Museumssammlung und weiteren Verwendung in anderen Kontexten beiträgt.
Die Digital Habsburg Platform (DHP) zielt darauf ab, Datenressourcen zu Zentraleuropa vom Hochmittelalter bis zur Moderne zusammenzuführen. Das Projekt umfasst die Dokumentation von Workshops zu prosopographischen Projekten, Beispieldatensätze zur Korrespondenz der Brüder Pez OSB, einen regelmäßig erscheinenden Digital-Humanities-Newsletter, einen Überblick über historische DH-Ressourcen in Österreich sowie eine COST-Action zur weiteren Arbeit von 2025 bis 2029.
Bei dem Teilprojekt zum Architekten Clemens Holzmeister handelt es sich um den ersten Versuch, einen umfangreichen Architekturnachlass digital zu erfassen. Dazu wurden Fotografien, Pläne und Zeichnungen zu dem von Holzmeister entworfenen Bauten digitalisiert und mit bestehenden Beständen (u.a. seine Korrespondenz sowie Zeitungsartikel) verknüpft. Dieser einmalige digitale Nachlass ist über ein eigens erstelltes Web-Interface zugänglich und erlaubt eine umfassende wissenschaftliche Bearbeitung.
Das Projekt der Historisch-physikalischen Sammlung zielt auf die digitale Erfassung eines kompakten musealen Sammlungsbestandes ab. Es umfasst die Erschließung und Archivierung von objektbezogenen Daten im Rahmen einer Weboberfläche und ermöglicht die niederschwellige Auseinandersetzung sowie die historische und biographische Kontextualisierung der einzelnen Objekte.
Die European Open Science Cloud (EOSC) zielt darauf ab, eine multidisziplinäre Umgebung zu schaffen, in der Forscher Daten, Werkzeuge und Dienstleistungen veröffentlichen, finden und wiederverwenden können.
Im Rahmen der Multimodalen Manuskriptrepräsentation ist ein Repositorium entstanden, in dem die vielfältigen Mess-und Beschreibungsdaten aus dem Bereich der Handschriftenforschung (CIMA) zusammen mit einer Beschreibung der Arbeitsabläufe archiviert und der Forschungsgemeinschaft dauerhaft zugänglich gemacht werden.
Im Zuge von Forschungsprojekten werden Webanwendungen oftmals unter Zeitdruck und ohne eine langfristige Perspektive konzipiert und erstellt. Das Subprojekt "mūsēum" bietet Forscher:innen die Möglichkeit, alte Webanwendungen einfach zu archivieren und darauf zurückzugreifen.
Die ÖNB Labs, die Plattform für digitale Bestände der Österreichischen Nationalbibliothek, bietet eine Auswahl an Bildmaterialien, Volltexten und Metadaten der eigenen Sammlung an und ergänzt diese um ausführliche Informationen und Anleitungen für den erfolgreichen Einsatz in der Forschung. Das Angebot reicht von individuell gestaltbaren Volltextsuchen (Annolyzer), digital kolorierten historischen Postkarten bis zu vollständig digitalisierten historischen Landkarten (Pasetti).
Für Forscher:innen, die sich mit computerbasierten Methoden beschäftigen, wurden mehrere Formate eingerichtet, die aktuelle Themen, Methoden und Anwendungen niederschwellig vermitteln und dauerhaft zugänglich machen. Dazu zählen Kurzanleitungen (HowTo), Workshops zu spezifischen Anwendungen (Tool Gallery) und Vorträge international anerkannter Expert:innen (Lectures).
Das Teilprojekt "Repositorien Discovery" arbeitete eng mit dem Teilprojekt "EOSC" zusammen, um die Auffindbarkeit geistes- und kulturwissenschaftlicher Forschungsdaten in österreichischen Repositorien zu verbessern. Ziel war es, einen Verbund von Repositorien aufzubauen und deren Lösungen In Bezug auf APIs, Metadatenschemata und Richtlinien zu harmonisieren.
Das Teilprojekt "Hybrid Pipelines" entwickelte das Konzept VELD (Versioned Executable Logic and Data), das mithilfe von Docker und Git flexible und nachvollziehbare Pipelines ermöglicht. Eine prototypische Implementierung wurde erfolgreich durchgeführt, wobei zahlreiche NLP-Pipelines mit historischen Texten erstellt wurden.