Die Rekonstruktion von historischen Beständen innerhalb der Österreichischen Nationalbibliothek ist eine wichtige Forschungsaufgabe der Bibliothek selbst und ein wichtiger Service für deren Nutzer*innen. Anhand von eindeutigen Klassifikationsmerkmalen innerhalb der Bücher lässt sich die Provenienz oft zurückverfolgen.
Innerhalb des Projekts wurden Pipelines und Anwendungsfälle für das Erkennen von Provenienzmerkmalen umgesetzt. Mittels des Workflows gelingt anhand von visuellen Merkmalen (z.B. Wappen, Ex-Libris-Angaben, Supralibros) eine Zuordnung der ehemaligen Besitzer*innen. Dafür wurde mit einem convolutional neural network gearbeitet, das auf diese Erscheinungsmerkmale trainiert wurde und in dafür vordefinierten Seitenbereichen der Bücher danach sucht. Die entwickelte Pipeline wurde später im Projekt Bibliotheca Eugeniana Digital weiterentwickelt und verbessert. --> GitHub
Die unter der Bezeichnung Pasetti-Karte bekannte Donau-Karte ist eine kartografische “Bestandsaufnahme” des Donauflusses samt Uferlandschaft vor den eingreifenden Donauregulierungen der zweiten Hälfte des 19. Jahrhunderts. Die Karte zeigt den Fluss der Donau von der deutsch-österreichischen Grenze bis zum Eisernen Tor in einem Maßstab von 1:28.800 basierend auf der Franziszeischen Landesaufnahme und Stromaufnahmen aus der Zeit vor 1830.
Diese imposante Karte wurde an der Österreichischen Nationalbibliothek digitalisiert und wiederum in ihrer Gesamtheit auch online zur Verfügung gestellt. Dabei konnten die einzelnen Scans durch die automatisierte Erkennung (und manuelle Nachbearbeitung) von Bildmerkmalen auf den Bildern digital wieder so aneinandergereiht werden, dass die Karte in einem eigens dafür erstellten Viewer komplett betrachtet werden kann. --> Webapp
Das Datenset der historischen Postkarten an der Österreichischen Nationalbibliothek umfasst circa 35.000 einzelne Postkarten aus der ganzen Welt mit unterschiedlichsten Motiven und Entstehungszeitpunkten. Circa 1/5 der Karten in der Collection sind auch farbig.
Innerhalb des Projekts wurde mit Machine Learning eine Möglichkeit geschaffen, damit auch der schwarz-weiße Teil des Bestands in Farbe dargestellt werden kann. Dabei wurden ausführliche Anleitungen zur Kolorierung von Scans in schwarz-weiß erstellt, wo zwei unterschiedliche Machine Learning-Modelle verwendet werden. Einerseits wurde eine Pipeline umgesetzt, um die Daten mit einem bereits bestehenden externen Modell zu kolorieren und andererseits wurde mit transfer learning basierend auf dem farbigen Teil der Collection ein eigenes spezielles Modell angelernt und veröffentlicht. --> Webapp
Mit dem Annolyzer ist es möglich eine detaillierte und tiefgehende Recherche in ausgewählten Zeitungsbeständen der Österreichischen Nationalbibliothek zu machen. Die über Annolyzer zur Verfügung gestellten Daten haben eine verbesserte OCR, die Strukturinformationen bis auf Artikelebene abbilden kann. Daher ist es möglich gezielt in Zeitungsartikeln zu suchen und eigene Forschungskorpora zusammenzustellen. Unterstützt werden Forscher*innen durch eine erweiterte Suche, annotierte Entitäten (Personen, Orte, Organisationen) und umfangreiche statistische Auswertungen und Visualisierungen. Außerdem haben Benutzer*innen die Möglichkeit die Forschungsdaten zu exportieren und mit anderen Tools weiteren A nalysen zu unterziehen. Ausgewählte Auswertungen können auch direkt in Annolyzer auf ein Datenset angewendet werden.
Annolyzer basiert auf einer Software, die ursprünglich für das NewsEye-Projekt entwickelt wurde und wurde für den Einsatz an der Österreichischen Nationalbibliothek adaptiert. --> Webapp
Die ÖNB Labs sehen sich als zentraler Einstiegspunkt für die computerunterstützte Arbeit mit Daten der Österreichischen Nationalbibliothek. Für ihre User stellen die ÖNB Labs ausgewählte Datensets inklusive Metadaten zur Verfügung und ermöglichen so eine kreative und künstlerische Nutzung der Daten. Diese Art der Zurverfügungstellung ist essenziell für beispielsweise Fragestellungen der Digitalen Geisteswissenschaften.
Um den Anforderungen der Nutzer*innen gerecht werden zu können, ist das Angebot der Datensets einem umfangreichen Redesign unterzogen worden. In Interviews mit Usern wurden dabei die Use Cases abgesteckt und die Anforderungen gesammelt. In einem nächsten Schritt wurden in Design Sprints die Neugestaltung entwickelt, umgesetzt und dann in Tests mit Forscher*innen aus unterschiedlichen Forschungsfeldern evaluiert. Die wesentlichsten Änderungen sind eine neue übersichtliche und einheitliche Gliederung der Datensets (Info, Reuse, Preview, Data) mit Farbcodierung, einheitliche Angaben zur Rechtekennzeichnung und Nutzung der Daten und ein Daten-Sample zu jedem Datenset.
Die Sammlung von Zeitungsausschnitten des Bestands Hachette an der Sammlung für Plansprachen der Österreichischen Nationalbibliothek, besteht aus etwa 17.000 Artikeln, die aus Zeitschriften stammen, welche in vielen verschiedenen europäischen Ländern im Zeitraum von 1898 bis 1915 veröffentlicht wurden. Die Artikel selbst berichten von Ereignissen und Personen, die mit Esperanto in Verbindung stehen, z.B. Berichte von Esperanto-Weltkongressen, und bieten daher eine hervorragende und einzigartige Gelegenheit, die Geschichte der Esperanto-Bewegung in Europa im frühen 20. Jahrhundert zu untersuchen. In diesem Projekt wurden Vorarbeiten zu einer Pipeline geleistet, die später auf den Bestand Hachette angewendet wurde. Es wurden für die sehr komplexen Aufnahmebögen der Zeitungsausschnitte neue OCR mit einem eigens dafür trainierten Modell erstellt und diese mit Metadaten, die durch Mitarbeiter*innen der Sammlung für Plansprachen zusammengestellt wurden, vereinigt. Die neu erstellte OCR-Pipeline umfasst die Segmentierung der Artikel, die Entfernung von Rändern der Scans, eine Drehung in die Waagerechte, die Texterkennung mit Tesseract und die Erstellung der Daten im ALTO-XML Format und als IIIF-Collection.
Im Rahmen von CIMA und der damit einhergehenden interdisziplinären Untersuchung von historischen Handschriften entsteht eine Vielfalt an Mess- und Beschreibungsdaten: diese reichen von Aufnahmen mit verschiedenen Wellenlängen (sog. Multi- und Hyperspektralbilder) über spektroskopische und mikrobiologische Materialanalysen, kodikologische und restauratorische Beschreibungen, bis hin zu Transkriptionen und philologischen Editionen.
Die Katalogisierung von Beständen erfolgt in Archiven und Bibliotheken über bibliothekarische Regelwerke. Diese müssen im Laufe der Zeit an veränderte Gegebenheiten angepasst und entsprechend modifiziert werden. Im Teilprojekt RNABle wurde der Prototyp eines solchen Programms fertiggestellt und weitere Funktionalitäten erweitert.
Die Digitale Erinnerungslandschaft Österreichs (DERLA) ist ein Projekt zur Erforschung von österreichischen Erinnerungsorten und -zeichen für die Opfer sowie die Orte des Terrors des Nationalsozialismus. Die Ergebnisse werden auf einer interaktiven und multimodalen Erinnerungslandkarte zusammengeführt, die neben Filter- und Suchfunktionen der niederschwelligen Vermittlung im Bildungsbereich dient.
Die Bedeutung der Digital Humanities spiegelt sich nicht zuletzt im wachsenden Angebot an einschlägigen Ausbildungen wider. Mehrere Projektpartner bereiten Kurse auf und stellen diese dauerhaft zur Verfügung. Diese Unterlagen sind für das Selbststudium konzipiert und richten sich an Lehrende wie Studierende.
An der Paris Lodron Universität Salzburg wurde im Rahmen von DiTAH eine Reihe an längerfristigen Vorhaben der Digital Humanities (u.a. eine Ringvorlesung, ein Wissenschaftsblog, der Umgang mit Repositorien) umgesetzt und dabei auf die nachhaltige Kommunikation mit internen und externen Partnern geachtet.
Im Teilprojekt "Digi 16" wurden bibliografische Daten zu einer historischen Buchsammlung der Universität Graz aus dem 16. Jahrhundert nach aktuellen Standards erstellt und durch objektspezifische Merkmale ergänzt sowie buchhistorisch ausgewertet.
Bei FERCAN handelt es sich um die digitale Edition keltischer Götternamen in lateinischen Inschriften. Neben einer ausführlichen Dokumentation und interaktiven Landkarten sind die einzelnen Datensätze mit externen Datenbanken verknüpft und erlauben auf diese Weise eine umfangreiche wissenschaftliche Auseinandersetzung.
Der über 13.000 Schriftstücke umfassende Briefwechsel des Publizisten Ludwig von Ficker (1880-1967) wurde in diesem Projekt transkribiert, semantisch angereichert (Annotation) und kommentiert. Damit liegt ein umfangreiches Korpus regionalhistorisch relevanter Briefe inkl. Orts- und Namensregister vor, das sich gezielt durchsuchen lässt.
Im Zuge der Digitalisierung werden immer mehr Forschungsgegenstände (Texte, Bilder, Objekte) digital zugänglich. Um diese wissenschaftlich zu verwerten sind semantische Informationen (Metadaten) notwendig. Im Teilprojekt "Foto-Datenbank" wurden bestehende Digitalisaten in einem mehrstufigen Verfahren durch eine formale Repräsentation (Metadaten basierend auf einer Ontologie) ergänzt, die eine wissenschaftliche Bearbeitung erst ermöglichen.
Das virtuelle Gipsmuseum umfasst die Digitalisierung der denkmalgeschützten Sammlungsräumlichkeiten sowie die historischen Gipsabdrücke der Universität Graz in Form von 3D-Modellen. Die Präsentation erfolgt zusammen mit einer Dokumentation der Modelle im Rahmen eines eigens dafür erstellten Portals, das zur Sichtbarkeit einer kompakten Museumssammlung und weiteren Verwendung in anderen Kontexten beiträgt.
Die Digital Habsburg Platform (DHP) zielt darauf ab, Datenressourcen zu Zentraleuropa vom Hochmittelalter bis zur Moderne zusammenzuführen. Das Projekt umfasst die Dokumentation von Workshops zu prosopographischen Projekten, Beispieldatensätze zur Korrespondenz der Brüder Pez OSB, einen regelmäßig erscheinenden Digital-Humanities-Newsletter, einen Überblick über historische DH-Ressourcen in Österreich sowie eine COST-Action zur weiteren Arbeit von 2025 bis 2029.
Bei dem Teilprojekt zum Architekten Clemens Holzmeister handelt es sich um den ersten Versuch, einen umfangreichen Architekturnachlass digital zu erfassen. Dazu wurden Fotografien, Pläne und Zeichnungen zu dem von Holzmeister entworfenen Bauten digitalisiert und mit bestehenden Beständen (u.a. seine Korrespondenz sowie Zeitungsartikel) verknüpft. Dieser einmalige digitale Nachlass ist über ein eigens erstelltes Web-Interface zugänglich und erlaubt eine umfassende wissenschaftliche Bearbeitung.
Das Projekt der Historisch-physikalischen Sammlung zielt auf die digitale Erfassung eines kompakten musealen Sammlungsbestandes ab. Es umfasst die Erschließung und Archivierung von objektbezogenen Daten im Rahmen einer Weboberfläche und ermöglicht die niederschwellige Auseinandersetzung sowie die historische und biographische Kontextualisierung der einzelnen Objekte.
Die European Open Science Cloud (EOSC) zielt darauf ab, eine multidisziplinäre Umgebung zu schaffen, in der Forscher Daten, Werkzeuge und Dienstleistungen veröffentlichen, finden und wiederverwenden können.
Im Rahmen der Multimodalen Manuskriptrepräsentation ist ein Repositorium entstanden, in dem die vielfältigen Mess-und Beschreibungsdaten aus dem Bereich der Handschriftenforschung (CIMA) zusammen mit einer Beschreibung der Arbeitsabläufe archiviert und der Forschungsgemeinschaft dauerhaft zugänglich gemacht werden.
Im Zuge von Forschungsprojekten werden Webanwendungen oftmals unter Zeitdruck und ohne eine langfristige Perspektive konzipiert und erstellt. Das Subprojekt "mūsēum" bietet Forscher:innen die Möglichkeit, alte Webanwendungen einfach zu archivieren und darauf zurückzugreifen.
Die ÖNB Labs, die Plattform für digitale Bestände der Österreichischen Nationalbibliothek, bietet eine Auswahl an Bildmaterialien, Volltexten und Metadaten der eigenen Sammlung an und ergänzt diese um ausführliche Informationen und Anleitungen für den erfolgreichen Einsatz in der Forschung. Das Angebot reicht von individuell gestaltbaren Volltextsuchen (Annolyzer), digital kolorierten historischen Postkarten bis zu vollständig digitalisierten historischen Landkarten (Pasetti).
Für Forscher:innen, die sich mit computerbasierten Methoden beschäftigen, wurden mehrere Formate eingerichtet, die aktuelle Themen, Methoden und Anwendungen niederschwellig vermitteln und dauerhaft zugänglich machen. Dazu zählen Kurzanleitungen (HowTo), Workshops zu spezifischen Anwendungen (Tool Gallery) und Vorträge international anerkannter Expert:innen (Lectures).
Das Teilprojekt "Repositorien Discovery" arbeitete eng mit dem Teilprojekt "EOSC" zusammen, um die Auffindbarkeit geistes- und kulturwissenschaftlicher Forschungsdaten in österreichischen Repositorien zu verbessern. Ziel war es, einen Verbund von Repositorien aufzubauen und deren Lösungen In Bezug auf APIs, Metadatenschemata und Richtlinien zu harmonisieren.
Das Teilprojekt "Hybrid Pipelines" entwickelte das Konzept VELD (Versioned Executable Logic and Data), das mithilfe von Docker und Git flexible und nachvollziehbare Pipelines ermöglicht. Eine prototypische Implementierung wurde erfolgreich durchgeführt, wobei zahlreiche NLP-Pipelines mit historischen Texten erstellt wurden.