Schlagwortregister
Academic Social Networking | |
Akademisches Identitätsmangement | |
Article Processing Charges (APC) | |
Ausdifferenzierung des Publikationswesens | |
BibTeX | |
Bilderebbe | |
Bilderflut | |
Bildrechte | |
Bildwissenschaften | |
Blog | |
Corpus | |
Datenbanken | |
Deckenmalerei | |
Delayed Open Access | |
Digital Literacy | |
Digitale Kunstgeschichte | |
Digitale Strategie | |
Digitales Publizieren | |
Digitalisierte Kunstgeschichte | |
Digitalisierung | |
E-Book | |
Einzelwerkbetrachtung | |
Enhanced Publication | |
Fachcommunity | |
Fachinformationsdienst (FID) | |
Formalismus | |
Forschungsdaten | |
Fotografierverbot | |
Geisteswissenschaften | |
Gold Open Access | |
Hardware-Entwicklung | |
Hosting | |
Impact | |
Kanon | |
Kataloge | |
Kunst-im-Plural-Forschung | |
Langzeitarchivierung | |
Langzeitverfügbarkeit | |
Lichtbildschutz | |
Linked Open Data (LOD) | |
Maschinenlesbarkeit | |
Metadaten | |
Moving Wall | |
MuseumsBaustein | |
Museumsfotos | |
Museumssammlungen | |
Mündlichkeit | |
Nachhaltigkeit | |
Neoformalismus | |
Normdaten | |
Ontologien | |
Open Access | |
Open Data | |
Open Journal Systems (OJS) | |
Open Monograph Press (OMP) | |
Open Science | |
Open-Access-Books | |
Open-Access-Monografie | |
Open-Access-Monografien | |
Partikularisierung | |
Peer-Review | |
Plan S | |
Publikationsdatenbank | |
Publikationsformate | |
Reproduktionsfotografie | |
Schriftlichkeit | |
Social Media | |
Software-Entwicklung | |
Storytelling | |
Subskriptionsmodell | |
Vortrag | |
Wirksamkeit | |
Wissenschaftliches Publizieren | |
Wissenschaftskommunikation | |
XML | |
Zeitschriften |
Register
academic communication | |
academic identity management | |
academic publishing | |
academic social networking | |
art-in-plural research | |
article processing charges (APC) | |
BibTex | |
blog | |
canon | |
catalogues | |
ceiling painting | |
corpus | |
databases | |
delayed open access | |
differentiation of the publication system | |
digital art history | |
digital literacy | |
digital publishing | |
digital strategy | |
digitization | |
digitized art history | |
e-book | |
ebb of images | |
effectiveness | |
enhanced publication | |
flood of images | |
formalism | |
gold open access | |
hardware development | |
hosting | |
humanities | |
image copyrights | |
impact | |
journals | |
lecture | |
Linked Open Data (LOD) | |
long-term archiving | |
long-term availability | |
machine readability | |
metadata | |
moving wall | |
museum collections | |
museum photos | |
MuseumsBaustein | |
neoformalism | |
normative data | |
ontologies | |
open access | |
open access books | |
open access monographs | |
open data | |
Open Journal Systems (OJS) | |
Open Monograph Press (OMP) | |
open science | |
oral form | |
particularisation | |
peer-review | |
Plan S | |
professional community | |
prohibition of photography | |
protection of photographs | |
publication database | |
publication formats | |
reproduction photography | |
research data | |
single-work-focus | |
social media | |
software development | |
Specialised Information Service | |
storytelling | |
subscription model | |
sustainability | |
visual culture | |
written form | |
XML |
Einführung
Die Moderne ist eine Epoche, in der sich die Zukunft von der Vergangenheit mit hoher Wahrscheinlichkeit unterscheidet. Ja, es ist denkbar, dass dieses Verständnis von Moderne den Kern von deren Essenz berührt. Die eigene Gegenwart des frühen 21. Jahrhunderts betrachtend, könnte man mit gutem Recht behaupten, dass die Moderne hier moderner ist als je zuvor: Nie zuvor nämlich war so wenig klar, wie das Leben in 30 Jahren sein würde. Ein Fingerzeig aber dürfte dadurch gegeben sein, dass man einmal versucht, sich zu erinnern, wie das Leben 30 Jahre zuvor war. Hierbei fällt vor allem eines auf, nämlich die nahezu vollständige Abwesenheit der Online-Medien, die unsere Gegenwart jetzt in einem kaum nachvollziehbaren Maße bestimmen. Und wenn wir den Kennern der technologischen Entwicklung Glauben schenken, dann ist eines sicher: Die Tatsache nämlich, dass sich die Entwicklungsdynamik fortsetzen wird, ja dass die Transformationsbewegungen sich so stark beschleunigen, dass sie zu einem anthropologischen Problem werden – wenn sie es nicht jetzt schon geworden sind. Konnte noch im 20. Jahrhundert ein Mensch am Anfang seines Lebens einigermaßen sicher sein, dass das Ende von ähnlichen Kontextbedingungen geprägt sein würde, so hat sich das im 21. Jahrhundert geändert: Ein jetzt Geborener wird mit hoher Wahrscheinlichkeit seinen Lebensabend in einer radikal veränderten Welt verbringen. Das, was uns zurzeit beunruhigt – Künstliche Intelligenz, autonome Systeme, simulierte Welten – dürfte dann die Welterfahrung ganz selbstverständlich prägen. Für den jetzt Lebenden ist das meist ein Horror, für die Zukünftigen wird es eine Selbstverständlichkeit sein, die sie mit Achselzucken zur Kenntnis nehmen – wenn sie sie überhaupt noch realisieren. Sicher aber dürfte sein, dass die augenblicklichen gesellschaftspolitischen Unwägbarkeiten und Verunsicherungen mit dieser Entwicklungsdynamik zusammenhängen. Wenn die Zukunft so anders als die Gegenwart ist, dann macht sie Angst, und man zieht sich gerne in die trügerischen Sicherheiten einer idyllisierten Vergangenheit zurück.
Die Zukunft der kunsthistorischen Publikation muss im Rahmen dieser säkularen Transformation gesehen werden. Auch wenn sie vor dem Hintergrund des großen Ganzen ein randständiges Phänomen zu sein scheint, so spiegelt sich hier im Kleinen die ganze Radikalität des Gesamten. Der Orientierungsrahmen wird an dieser Stelle erneut durch die Digitalisierung gegeben, die hier ja schon im Großen als der entscheidende Agent der Veränderung genannt wurde. Somit dürfte es nicht überraschen, dass in den meisten der hier vorliegenden Beiträge die Digitalisierung im Mittelpunkt der Betrachtungen steht.
Vor 30 Jahren schien die Sache noch klar. Wer eine Veröffentlichung plante, hatte seinen Text in den seltensten Fällen schon auf einer Diskette gespeichert, sondern lieferte ihn beim Verlag, der den Druck übernehmen sollte, als maschinengeschriebenes Manuskript ab. Lektorat war auch damals schon ein Sonderservice, der zuweilen eigenständig bezahlt werden musste, weil schon zu diesem Zeitpunkt die Zahl der verkauften Exemplare im Abnehmen begriffen war. Bei kunsthistorischen Veröffentlichungen kamen Fotos beziehungsweise Durchlichtvorlagen hinzu, die die Druckerei des Verlags auf Papier brachte (Belichtung), genau wie eben auch das Manuskript mit dem Text. Das fertige Produkt erhielt der Autor oder die Autorin erneut zum Korrekturlesen, danach wanderte das Ganze in den endgültigen Druck. Im Grundsatz verlief dieser Prozess bei allen Druckwerken ähnlich, egal ob es sich um eine Monografie, einen Sammelband oder eine Zeitschrift handelte.
Nach 1990 hat sich hier einiges verändert, auch wenn weiterhin für den Buchdruck auf einen reproduzierbaren Film ausbelichtet werden musste und muss. Insbesondere wurde die Codierung der Manuskripte, die davor im Verlag vorgenommen wurde, nunmehr in die Hände des Autors oder der Autorin verlagert, der oder die diese nun gleich in Form eines elektronischen Textes, meist auf Diskette, an den Verlag auslieferte. Noch nicht 1990, aber doch sicherlich zehn Jahre später, als sich das Internet in seiner Erscheinungsform des World Wide Web anschickte, zu einem Massenmedium zu werden, kam auch die Idee auf, dass man für die Verbreitung wissenschaftlicher Ergebnisse eigentlich gar nicht mehr eines gedruckten Buches bedurfte, sondern gleich online publizieren konnte. Etwa zur gleichen Zeit häuften sich die Forderungen, dass diese Ergebnisse frei zugänglich für alle – im Open Access – zur Verfügung gestellt werden sollten. Die Frage, wie eine solche Praxis zu finanzieren sei, bestimmt die Diskussion bis heute und beschäftigt auch viele Autor*innen der hier vorliegenden Beiträge.
Johannes Grave liefert eine Tour d’Horizon der sich wandelnden Publikationskultur und lenkt dabei den Blick auf problematische Effekte des expandierenden kunsthistorischen Veröffentlichungsmarktes. Diese Expansion bringt er mit der zunehmenden Spezialisierung der Fachvertreter*innen in Zusammenhang, die all die Produktionen gar nicht mehr richtig überblicken können. Seine Hoffnung, dass Forschungsliteratur zunehmend Open Access erscheint, geht einher mit dem Plädoyer, urheberrechtliche Hürden für die wissenschaftliche Nutzung von Abbildungen abzubauen. Gleichzeitig votiert er für eine Stärkung der Zeitschriften und für eine umfassendere Qualitätskontrolle. Als ehemaliger Mitherausgeber der Zeitschrift für Kunstgeschichte hat Grave sich intensiv mit der Problematik beschäftigen können. Wie sehr das Geschäft im Umbruch ist, lässt sich dran erkennen, dass diese Zeitschrift im Herbst 2019 in eine Krise geraten ist, da die damaligen Herausgeber*innen und der Verlag sich nicht über einen Zeitplan und ein Transformationsmodell für den Umstieg auf Gold Open Access einigen konnten.
Das leidige Problem der Reproduktionsrechte spricht Grischka Petri an, der die ausgesprochen komplizierte Rechtslage erläutert. Noch zuletzt sind in Deutschland von einem höchstrichterlichen Urteil die Rechte der Besitzer, und hier insbesondere der Museen, gestärkt worden, obwohl alle Kenner*innen der Materie mit Blick auf das Internet eher eine Lockerung rechtlicher Restriktionen verlangen. Die USA scheinen hier mit der Idee vom Fair Use erheblich weiter zu sein. Dem ist mit einem restriktiv ausgelegten deutschen Zitatrecht aber nur unzureichend nahezukommen. Immerhin lässt die europäische Gesetzgebung kurz- bis mittelfristig erwarten, dass gemeinfreie Werke nicht über Leistungsschutzrechte für den Fotografen diesen Status in der Praxis wieder verlieren. Im Bereich der urheberrechtlich geschützten Werke lässt sich zudem und in Ergänzung zu Petri feststellen, dass die Verwertungsgesellschaft Bild-Kunst für die Anbieter*innen von Publikationsprodukten, also zum Beispiel für Verlage, durchaus bescheiden dimensionierte Pauschalregelungen anbietet, diese werden aber in Zukunft wohl immer an den Zugriffsraten bemessen werden.
Der Verlag De Gruyter, der zuletzt gleichermaßen als Verleger kunsthistorischer Texte wie als Einkäufer geisteswissenschaftlicher Verlage von sich reden machte, bietet die Open-Access-Veröffentlichung im Netz als Full Service an. Dass dies angesichts der dadurch fehlenden Verkaufserlöse nicht umsonst zu haben ist, liegt auf der Hand, auch wenn Pipa Neumann es in ihrem Beitrag nicht eigens betont.
In anderen Beiträgen werden Dinge diskutiert, die die Frage aufkommen lassen, wie stark die Veröffentlichungstätigkeit überhaupt noch auf einen externen Dienstleister wie einen Verlag angewiesen ist, zumal ein wesentlicher Teil der Tätigkeit ja inzwischen auf den Autor oder die Autorin verlagert ist, der oder die die Texte gleich in maschinenlesbarer Form abliefert. Bedenkt man, wie bescheiden inzwischen die Auflagen von wissenschaftlichen Arbeiten sind – Dissertationen erreichen heute selten mehr als 250 verkaufte Exemplare, vor wenigen Jahrzehnten tendierte diese Zahl eher gegen tausend –, dann wird klar, dass hier nicht allzu viel an redaktionellen Leistungen investiert werden kann, sodass insbesondere das Lektorat heute in vielen Fällen wegfällt. Nimmt man hinzu, dass Redaktion und Satz über inzwischen ausgereifte und vielfach auch von Laien zu bedienende elektronische Systeme bewerkstelligt werden können, so wird der Spielraum für Dienstleister wie Verlage immer enger. In weiteren Beiträgen, die sich als Werkstattberichte aus der publizistischen Praxis verstehen, wird ausgebreitet, was hier inzwischen alles möglich ist und praktiziert wird.
Mit der Kunstchronik präsentiert Christine Tauber eines der Flaggschiffe der kunsthistorischen Publizistik, von denen es nach dem Ende verschiedener Organe ja immer weniger gibt (Gazette des Beaux Arts / IDEA / Pantheon etc.). Die Zeitschrift, die mehr oder weniger vollständig in der Redaktion des Zentralinstituts für Kunstgeschichte produziert und dann im Verlag nur noch für den Druck vorbereitet und distribuiert wird, erscheint schon jetzt auf dem sogenannten grünen Weg im Open Access, wird also einige Jahre nach Veröffentlichung der gedruckten Ausgabe kostenfrei online bereitgestellt. Christine Tauber stellt (skeptische) Überlegungen zur echten Open-Access-Publikation vor, die zurzeit noch an Unklarheiten der Förderung leidet. Ein wichtiges Argument für Open Access resultiert hier aus dem, was man einmal die „normative Kraft des Faktischen“ genannt hat: Wer von den jüngeren Kunstinteressierten kommt heute noch auf die Idee, die Printausgabe einer Zeitschrift zu abonnieren?
Ebenfalls am Zentralinstitut wird eine weitere kunsthistorische Online-Publikation betreut, das sogenannte RIHA Journal, eine Gemeinschaftsproduktion von insgesamt 25 internationalen Forschungsinstituten. Andrea Lermer, die selber für die Gesamtredaktion der Zeitschrift zuständig ist, vermittelt einige wichtige Erkenntnisse zu dieser Form von Veröffentlichung. Kritische Fragen werden auch hier insbesondere zur Finanzierbarkeit von Open-Access-Zeitschriften aufgeworfen. Der von mehreren europäischen Wissenschaftsförderern favorisierte sogenannte Plan S, der eine Förderung der Drucklegung an den goldenen Weg des Open-Access-Publizierens bindet, also die sofortige frei zugängliche Publikation im Internet, scheint nicht das letzte Wort zu sein. Insbesondere wird klar, dass sich die gesamte Veröffentlichungsförderung sehr stark an den Naturwissenschaften orientiert und dass deren Strukturen nur bedingt auf die Geisteswissenschaften zu übertragen sind. Andersherum könnte man aber auch argumentieren, dass sich das Modell der Naturwissenschaften, egal wie sinnvoll es für Fächer wie die Kunstgeschichte ist, letztlich wohl allgemein durchsetzen wird.
Das, was bei Tauber und Lermer auf der Ebene von Aufsätzen durchexerziert wird, überträgt Claudie Paye auf den Bereich der Monografien. Bislang wurde gerne argumentiert, dass man allenfalls Aufsätze am Bildschirm lesen könne, auf keinen Fall aber Bücher. Da die Printversion erhalten bleiben kann, wenn das gewollt ist – zumal bei Print-on-Demand kostenneutral für die Autor*innen –, fällt das Argument aber weg. Auch Bücher können im Open Access veröffentlicht werden, mit allen Vorteilen, die ihnen in diesem Medium zuwachsen und auf die zurückzukommen sein wird. Aber auch bei den Monografien stellt sich das Finanzierungsproblem, und es wird dann wenigstens im Ansatz zu lösen sein, wenn sich die traditionellen Finanzierer auch für Open-Access-Veröffentlichungen begeistern können. Apropos Konkurrenz von Open Access und Druck: Manche Untersuchungen legen durchaus nahe, dass die freie Verfügbarkeit im Netz den Verkauf gedruckter Versionen nicht vermindert, sondern sogar eher befördert!
Anne Helmreich widmet sich einer spezifisch kunsthistorischen Veröffentlichungsform, wenn sie die Initiative ihres Arbeitsgebers, der Getty Foundation, vorstellt, mit der vor etwa einem Jahrzehnt die Online-Veröffentlichung von musealen Sammlungskatalogen gefördert werden sollte. An die zehn Museen aus dem angelsächsischen Bereich kamen in den Genuss dieser Förderung und bedienten sich eines Mediums, das sich in besonderem Maße für die digitale Publikationsform eignet. Denn Sammlungskataloge sind nicht abgeschlossen und wären bei jedem Neuankauf oder jeder Stiftung zu ergänzen. Diese Notwendigkeit lässt sich im Druck nur in größeren Abständen realisieren, digital aber mit minimalem Aufwand. Dass es trotzdem nicht einfach ist, eine solche Umstellung durchzuführen, schildert die Autorin eindrucksvoll. Sicherlich ist das auch ein Grund dafür, warum sich diese Veröffentlichungspraxis außerhalb der Getty-Förderung noch nicht wirklich durchgesetzt hat.
Wenn über elektronische Publikationsformen diskutiert wird, dann meist im Geiste der Kontinuität im Sinne einer Fortsetzung alter Buchtraditionen in ein neues, elektronisches Format – auch bei jenen, die einsehen, dass am Internet wohl kein Weg mehr vorbeiführen wird. Alles entscheidend ist immer, was vom alten Medium erhalten und ins neue überführt werden kann. Anders geht Christian Gries an die Sache heran, der mit Living Documents solche meint, die sich auch nach der Veröffentlichung noch ändern können. Mit digitalen Dokumenten ist das leicht möglich, auch wenn bei der Versionierung hier strenge Workflows zu beachten sind. Für Gries ist klar, dass in Zeiten des Internets eine Publikation nicht mehr für sich alleine steht, sondern zwecks Impact-Steigerung einer begleitenden Publikationstätigkeit bedarf: Wer digital veröffentlicht, kann und sollte auch eine digitale Strategie haben und die Aufmerksamkeit durch begleitende Blog- und Twitteraktivität steigern.
Die zuletzt genannten Mikro-Veröffentlichungsformen fristen in dieser Publikation allerdings ein eher randständiges Dasein. An einer Stelle aber spielt das Bloggen doch zumindest implizit eine bedeutende Rolle, nämlich im Essay von Wolfgang Ullrich, der einer zunehmenden Leseunlust eine wachsende Schreibbereitschaft entgegensetzt. Diese komme vor allem im Internet zur Geltung, das ihm auch als Werbemedium relevant scheint, mit dem man das gedruckte Buch vorbereiten, begleiten und kommentieren kann. Für einen public intellectual wie Ullrich, der seinen Lebensunterhalt nicht aus staatlich garantierten Gehaltszahlungen bezieht, ist das Schreiben von Büchern im Übrigen keine Verdienstgarantie. Vielmehr macht er im Wege der Publikation – ob online oder gedruckt – auf sich aufmerksam und wird zu Ereignissen wie Vorträgen, Tagungen oder Podiumsdiskussionen eingeladen, für die er dann bezahlt wird. Eine eigentümliche Verkettung unter neumedialen Bedingungen: Mit dem Blogbeitrag im Netz befördere ich das Buch, mit dem Buch den Liveauftritt, und dieser Liveauftrifft wird dann womöglich im Netz wieder dokumentiert.
Auch Christof Schöch betrachtet wissenschaftliche Publizistik aus einem sehr interessanten Blickwinkel, weil er sie nicht ausschließlich vom Gegenstand her denkt, sondern vom Medium selber und von den Maschinen, die diese Produkte verarbeiten. Wenn die eben genannten „Fatalisten“ im Digitalen doch gewöhnlich nur eine nicht zu vermeidende Notlösung sehen, versucht Schöch, dessen Vorteile für die Forschung herauszustreichen. Deswegen kritisiert er das gerade in den Geisteswissenschaften allseits verbreitete PDF-Format und plädiert für eine dem Internet gemäßere Publikationsform. Wer sich mit den verschiedenen Dateiformaten auskennt, die für Online-Publikationen zur Verfügung stehen, wird vielleicht infrage stellen, ob das XML-Format schon der Weisheit letzter Schluss ist. Aber es bietet doch einen Mehrwert, den die Traditionalisten meist gar nicht sehen. Stichwort Semantic Web. Erst die kategorisierende Codierung von bestimmten Sachgruppen und Relationen ermöglicht eine Zusammenschau von Forschungsergebnissen, die ansonsten im linear angelegten Text gar nicht aufscheinen würden. Man stelle sich eine entsprechende Codierung großer Inventarbände oder Lexika vor, in denen eigentlich zusammengehörige Informationen über den Text – zum Beispiel in verschiedenen Lemmata – verteilt sind: Dann wird nachvollziehbar, dass die Digitalisierung nicht einfach nur Altes ins Neue überträgt, sondern dass das Neue auch Wissensbestände offenlegt, die ansonsten in der Medialität der Darstellungsform untergehen.
Ähnliches gilt für die Darstellung Matteo Burionis, der sich der Datenbank zuwendet, einer Veröffentlichungsform sui generis, die sich vor allem für serielle Zusammenstellungen großer Mengen von Einzelobjekten eignet. Im Fall des „Corpus der barocken Deckenmalerei“ wird der überaus komplexe und aufwändige Prozess der Datenverarbeitung erklärt. Er generiert zwar entscheidende Mehrwerte gegenüber traditionellen Publikationsformen wie dem schlichten Zettelkasten, es muss hierbei aber auch ein guter Teil der Arbeitszeit in die technische Verarbeitung und die Codierung investiert werden. Umso wichtiger ist es, dass man sich hier an Standards orientiert, die das Verfahren handhabbar machen.
Die mangelnde Standardisierung, die ja im Übrigen in den Augen der auf individueller Autonomie bestehenden Kunsthistoriker*innen sowieso mit Skepsis betrachtet wird, leitet auch zum Beitrag von Bernd Kulawik über, der die ganze Entwicklung infrage stellt. Und zwar nicht etwa, weil er die Legitimität der Digitalisierung in Zweifel zieht, sondern weil er sie unprofessionell durchgeführt sieht. Wenn man sich den tendenziellen Verzicht auf Standardisierung und die immer komplexer werdende Software ansieht, und wenn man zudem bedenkt, wie wenig ältere Produkte bei den neueren Verarbeitungsverfahren berücksichtigt werden beziehungsweise wie unzureichend die Anpassung der Produkte an neuere Softwareversionen vonstattengeht, dann kann es einem wirklich angst und bange werden. Ob vielleicht eines Tages ganze Datenbestände als verloren gelten müssen, weil wir sie nicht mehr lesen können? Der Verdacht, dass die Digitalisierung einer Entgeschichtlichung gleichkommt, wäre dann auf tragische Weise bestätigt.
An das Stichwort „Entgeschichtlichung“ schließt auch der Beitrag Wolfgang Kemps an, der über die konkrete Frage nach der Zukunft des kunsthistorischen Publizierens dann aber doch um einiges hinausgeht. Die Digitalisierung sieht Kemp in einer Linie mit den Dekontextualisierungen von Ansätzen wie denjenigen Heinrich Wölfflins und seiner binär organisierten Stilgeschichte, wobei diese Digitalisierung Wölfflins Ansatz auf in Kemps Augen desaströse Weise verschärft. Hierzu erlauben sich die Herausgeber des vorliegenden Bandes aber die kritische Anmerkung, dass dies doch wohl eine sehr einseitige Sicht der Digitalisierung ist, sorgt diese doch mit ihrer im sogenannten „knowledge graph“ mündenden Verlinkung auf vorher ganz unvorstellbare Art und Weise auch für eine universelle Rekontextualisierung der historischen Objekte.
Eine Publikation über das Publizieren zu produzieren, erzeugt einige Rückkoppelungseffekte, die zunächst nicht zu erwarten waren. Es wäre einigermaßen unplausibel gewesen, hätten wir die vorliegenden Texte als PDF produziert, nachdem in dem mitveröffentlichten Text von Christof Schöch auf die Unzulänglichkeit dieses Publikationsformates hingewiesen wurde. Es ist ja eigentlich nur eine Verlängerung des Analogen ins Digitale, eine typische und omnipräsente Form eines neuen Mediums, das das alte Medium imitiert. Aber auch, weil in diesem Buch nicht nur über die Zukunft des Publizierens gesprochen werden, sondern diese Zukunft auch schon ein wenig selbst präsent sein sollte, haben wir uns neben dem E-PDF und der Print-on-Demand-Ausgabe für ein weiteres Ausgabeformat entschieden, das die Texte in die universalen Bezüge des entstehenden Semantic Web einbindet. Was genau hier realisiert wurde – dankenswerter Weise in Abstimmung mit Christof Schöch und unter aktiver Einbeziehung der Autor*innen – beschreibt der Beitrag von Maria Effinger und Frank Krabbes. Quasi als experimenteller Selbstversuch wird bei unserem Tagungsband, der auf der von der DFG-geförderten Open-Access-Publikationsplattform arthistoricum.net – ART-Books erscheint, dem PDF-E-Book und der Druckausgabe (Print-on-Demand) nicht nur eine XML-basierte HTML-Version zur Seite gestellt, sondern als viertes Ausgabeformat ein maschinell lesbares und mit Normdatentagging angereichertes XML zum Download angeboten.
All diese Mehrwertinformationen sind allerdings nur im Online-Format zu nutzen, zum Teil unmittelbar durch die Leser*innen, zum Teil aber naturgemäß nur durch die „Maschine“. In der gedruckten Version, die wir als mögliche Rezeptionsform zur Verfügung stellen und die auch in unseren Augen eine wichtige Dokumentationsfunktion besitzt, muss sich der Leser oder die Leserin mit der sequentiellen Aufnahme zufriedengeben, die die Texte der Vergangenheit ausschließlich geprägt hat.
Das Buch geht auf eine Tagung zurück, die als Gemeinschaftsunternehmen des Instituts für Kunstgeschichte der LMU München und des dortigen Zentralinstituts für Kunstgeschichte im Spätsommer 2019 stattgefunden hat. Wir danken beiden Institutionen sowie dem Freundeskreis des Instituts für Kunstgeschichte für die finanzielle Unterstützung und wünschen eine gute Lektüre. Die Umsetzung der Texte in die verschiedenen Print- und Online-Formate übernahm das Team der Open-Access-Plattform arthistoricum.net – ART-Books der Universitätsbibliothek Heidelberg.
ORCID®
Maria Effinger https://orcid.org/0000-0001-6396-4876
Hubertus Kohle https://orcid.org/0000-0003-3162-1304
Theorie
Reichtum oder Wildwuchs? Über einige Entwicklungen in der kunsthistorischen Publikationslandschaft und die Rolle der Zeitschriften
Zum Hiat zwischen Theorie und Praxis
Wenn es um das Publizieren geht, scheinen in der Kunstgeschichte Theorie und Praxis weitgehend unverbunden nebeneinander zu stehen.1 Spätestens seit der verstärkten Erforschung der Geschichte der Disziplin ist das Bewusstsein für die Bedeutung fachspezifischer Publikationsformen und -kulturen fest in der Kunstgeschichte verankert. Wie stark medienhistorische Umbrüche, bestimmte Publikationsformate und verlagshistorische Entwicklungen das Fach geprägt haben, ist mit Arbeiten zum illustrierten Kunstbuch, zur Spezifik des kunsthistorischen Handbuchs oder zur Bildpraxis in kunstgeschichtlichen Publikationen klar vor Augen geführt worden.2 Und dennoch zeigt sich im Fach Kunstgeschichte kaum der Wille und der Anspruch, die eigene Publikationslandschaft, in der wir uns gegenwärtig bewegen, umfassend zu prägen und zu gestalten. An individuellen Initiativen, etwa der Gründung von Buchreihen und Zeitschriften [Wikidata, GND], der Etablierung von Blogs [Wikidata, GND] oder der anspruchsvollen Gestaltung einzelner Buchprojekte, mangelt es sicherlich nicht. Doch die Frage, wie sich die allgemeinen Rahmenbedingungen kunsthistorischen Publizierens in Zukunft gestalten, kommt dabei kaum in den Blick. Wir lassen uns treiben, reagieren allenfalls individuell und punktuell auf Entwicklungen, die wir wahrzunehmen meinen. Wenn ich richtig sehe, bemühen wir uns derzeit aber nicht gezielt darum, überhaupt ein umfassenderes Bild der Situation zu gewinnen.
Dabei unterliegt die Publikationslandschaft des Faches zweifelsohne einer Vielzahl von Entwicklungen, aus denen sich einschneidende Veränderungen der Rahmenbedingungen kunsthistorischen Arbeitens ergeben. Sicherlich wäre es weder realistisch noch erstrebenswert, in diesen Wandel gleichsam technokratisch eingreifen zu wollen, um ihn durch Direktiven zu steuern. Dennoch ist es an der Zeit, sich die aktuelle Situation und die gegenwärtigen Herausforderungen zumindest bewusst zu machen. Denn nur wenn wir über Probleme und Potenziale des kunsthistorischen Publizierens offen diskutieren, können wir dafür Sorge tragen, dass die Interessen der Wissenschaft und namentlich der Kunstgeschichte nicht marginalisiert werden.
Im Folgenden möchte ich versuchen, einige jüngere Entwicklungen in der kunsthistorischen Publikationslandschaft skizzenhaft nachzuzeichnen. Im Zentrum stehen dabei nicht die bereits oft diskutierten Neuerungen und Herausforderungen des Publizierens im digitalen Zeitalter [Wikidata, GND], sondern Veränderungen, die auf den ersten Blick weniger auffallen und dennoch weitreichende Wirkungen zeitigen könnten. Zu diesem Zweck werde ich mich freilich weitgehend auf persönliche und allzu lückenhafte Eindrücke beschränken müssen, da es meines Wissens an umfassendem statistischem Material fehlt, das sich ohnehin aufgrund von Abgrenzungsproblemen nur mit sehr hohem Aufwand halbwegs verlässlich gewinnen ließe: Denn wie weit erstreckt sich zum Beispiel der Bereich des kunsthistorischen Fachbuchs, und wo beginnt das Segment des Kunstbuchs oder des Sachbuchs zur Kunst? Meine Beobachtungen stehen mithin unter einem erheblichen Vorbehalt; sie mögen aber immerhin dazu dienen, eine Diskussion anzustoßen.3
Jüngere Entwicklungen im kunsthistorischen Publikationswesen
Dass sich die kunsthistorische Publikationslandschaft nicht ohne Weiteres souverän überblicken lässt, deutet bereits auf eine prägende Entwicklung der letzten Jahrzehnte hin: Kunsthistoriker*innen sehen sich heute einem ungemein breit und detailliert ausdifferenzierten Publikationswesen gegenüber. Die Quantität an Veröffentlichungen zu Gegenständen, die in unserem Fach behandelt werden, ist nach meinem Eindruck nicht nur kontinuierlich, sondern beschleunigt angewachsen.4 Das verdankt sich nicht zuletzt der signifikanten Ausdehnung des Gegenstandsbereichs der Kunstgeschichte, die sich nicht mehr allein auf Europa und Nordamerika beschränkt und neben den sogenannten bildenden Künsten sowie der Architektur auch nicht-künstlerische Bilder, Artefakte und visuelle Medien [Wikidata, GND] in den Blick nimmt. Selbst bedeutende Kunstbibliotheken oder große, gut sortierte Kunstbuchhandlungen scheinen dieses gewaltige, kaum eingrenzbare Feld nicht mehr umfassend abbilden zu können. Kurzum: Die Kunstgeschichte ist nach meinem Eindruck auch im Publikationswesen auf Expansionskurs – ungeachtet der teilweise erheblichen Probleme, mit denen sich nicht wenige Verlage, unter anderem die angloamerikanischen University Presses, konfrontiert sehen.
Die Vielfalt und die Quantität, die daraus erwachsen sind, haben große Vorzüge; denn sowohl als Autor*innen als auch als Leser*innen stehen uns einzigartig viele Optionen offen. In unserem Lese- und Publikationsverhalten können wir ausgesprochen individuellen Vorlieben folgen, und das breite Spektrum an Veröffentlichungsformen und -orten ermöglicht eine Teilhabe auf unterschiedlichsten Ebenen und in verschiedensten Rollen. Zugleich bildet die gesamte Publikationslandschaft auf diese Weise den Reichtum all jener Diskurse ab, die sich auf die Gegenstandsbereiche der Kunstgeschichte beziehen. Die Kehrseite dieses Artenreichtums in unserem Garten ist – um die Metapher weiterzuführen – eine Tendenz zum ungebremsten Wildwuchs, der seinerseits keineswegs stets die Vielfalt fördert, sondern mittelfristig zur Folge haben könnte, dass sich die stärksten Pflanzen durchsetzen und andere Kulturen überwuchert oder an den Rand gedrängt werden.
Denn die auf den ersten Blick so produktive und anregende Quantität kunsthistorischer Publikationen droht paradoxerweise zu einer Verengung des Blicks und der Rezeptionspraktiken in der kunsthistorischen Forschung beizutragen. Weil niemand mehr die Fülle der Veröffentlichungen auch nur zu einzelnen größeren Gegenstandsbereichen überblicken kann, bilden Kunsthistorikerinnen und Kunsthistoriker individuelle Strategien der Orientierung in diesem Dschungel aus: Sie ziehen den Radius dessen, was sie im Rahmen ihrer eigenen Forschung berücksichtigen, zunehmend enger und lesen zum Beispiel während der Arbeit an einem Beitrag über Manet nicht mehr möglichst große Teile der Forschung zum Künstler und zu seiner Zeit, sondern ziehen vorrangig oder gar ausschließlich jene Aufsätze und Buchkapitel heran, die sich explizit mit dem Gemälde beschäftigen, das Gegenstand der eigenen Arbeit ist. Zudem wird vermehrt nach bestimmten Vorlieben unter Verlagen, Zeitschriften [Wikidata, GND], Autorinnen und Autoren ausgewählt, sodass Studien „namenloser“ Verfasser und aus wenig prominenten Verlagen ebenso Gefahr laufen, ignoriert zu werden, wie Beiträge, die in anderen Sprachen als der eigenen Muttersprache oder dem Englischen erschienen sind.
Nach meinem Eindruck geht mit der Expansion des kunsthistorischen Publizierens in jüngerer Zeit daher eine schleichende Verengung des Spektrums relevanter Sprachen einher. Insbesondere die tonangebende anglofone Kunstgeschichte scheint dazu zu tendieren, italienische und deutschsprachige Forschungsbeiträge mehr und mehr zu übersehen.5 Aber auch die deutschsprachige Kunstgeschichte zeigt zunehmend weniger Hemmungen, Publikationen in anderen Fremdsprachen als dem Englischen zu marginalisieren. Eine ganze Kultur der Vielsprachigkeit [Wikidata, GND], die ihrerseits einen unschätzbaren Reichtum an begrifflichen und semantischen Denkmöglichkeiten birgt,6 droht zu verblassen oder gar verloren zu gehen. An dieser Entwicklung dürfte die Fülle kunsthistorischer Publikationen einen wesentlichen Anteil haben. Denn wenn man ohnehin nicht mehr alle relevanten Veröffentlichungen zu einem Thema zu lesen vermag, liegt es nahe, sich auf sprachlich gut zugängliche, prominent publizierte Beiträge zu konzentrieren. Hier – und keineswegs allein in dem viel gescholtenen Peer-Review [Wikidata, GND] – dürfte ein wichtiger Faktor für das allseits bedauerte Mainstreaming liegen, das gelegentlich den Verdacht aufkommen lässt, dass der Vielzahl an Publikationen nicht zwangsläufig ein Reichtum an Perspektiven und Ansätzen entspricht.
Eine weitere, bereits heute spürbare Folge der quantitativen Zunahme kunsthistorischer Publikationen ist die Partikularisierung des Faches. Das signifikant gestiegene Angebot an Veröffentlichungen führt nicht selten dazu, dass Kunsthistoriker*innen sich darauf konzentrieren, die Neuerscheinungen in einem vergleichsweise eng umschriebenen Feld wahrzunehmen. Da dabei oftmals auch zu berücksichtigen ist, was in benachbarten Fächern mit engen Bezügen zu den eigenen Themen publiziert wird, drohen andere Gegenstandsbereiche und Forschungsfelder der Kunstgeschichte in den Hintergrund zu rücken. Teilen der kunsthistorischen Forschung zum 20. und 21. Jahrhundert mangelt es mehr und mehr an vertieften Kenntnissen jüngerer Beiträge zur älteren Kunstgeschichte; aber auch in der Mediävistik und der Frühneuzeit-Forschung lassen sich Partikularisierungstendenzen verzeichnen. Generell scheinen die – nicht selten besonders anregenden und produktiven – Grenzgänge zwischen verschiedenen Forschungsfeldern und Diskurstraditionen seltener zu werden, da die Quantität potenziell relevanter Publikationen abschreckend wirkt. Diese Partikularisierung wird nicht nur von der aktuellen Publikationslage befördert, sondern schlägt sich ihrerseits in Veröffentlichungspraktiken nieder. Zunehmend bilden sich Zeitschriften [Wikidata, GND], Buchreihen und ganze Verlagsprogramme heraus, die ganz gezielt eine eng umgrenzte Community innerhalb des Faches ansprechen.
Die Quantität kunsthistorischer Publikationen wirft nicht zuletzt auch Fragen der Qualittssicherung [Wikidata, GND] auf. Wer nicht alles lesen kann, was grundsätzlich für eine Fragestellung relevant zu sein scheint, würde sich gerne auf jene Publikationen beschränken, die tatsächlich innovative und zugleich qualitativ hochwertige Forschungsbeiträge bieten. Doch mit der starken Zunahme und Ausdifferenzierung kunsthistorischer Publikationen nimmt die Unübersichtlichkeit in Qualitätsfragen eher noch zu. Vor besondere Herausforderungen stellt dabei die Expansion des Segments der Sammelbände [Wikidata, GND], die häufig aus Tagungen oder Kolloquien hervorgehen, die ihrerseits nicht selten Aktivitäten von Drittmittelprojekten oder wissenschaftlichen Gesellschaften dokumentieren sollen.7 Dass die rege Sammelband-Produktion mit Problemen bei der Qualitätssicherung [Wikidata, GND] einhergeht, ist nicht neu; inzwischen hat sich ein regelrechter Topos der Klage über Sammelbände herausgebildet.8 Dennoch scheint ihre Produktion ungebrochen: Bisweilen beschleicht den Leser das Gefühl, dass der stetige Wert- und Ansehensverlust zu einer Beschleunigung der Sammelband-Produktion veranlasst, dass also schlichtweg die Zahl der Sammelbände weiter erhöht wird, wenn der einzelne Band an Wert zu verlieren droht. Daneben lassen sich Versuche beobachten, innerhalb des Segments der Sammelbände durch die Profilierung bestimmter Reihen, durch die Wahl des Verlags oder durch das Einführen eines Peer-Reviews [Wikidata, GND] Distinktionsmerkmale auszubilden. Das Peer-Review-Verfahren [Wikidata, GND] gewinnt auch deswegen an Bedeutung, weil Wissenschaftsförderer und Drittmittelgeber zunehmend auf Publikationen Wert legen, die einer standardisierten Qualitätskontrolle unterliegen. Wer an solchen Prozessen, die in der anglofonen Sammelband-Kultur bereits fest verankert sind, mehrfach beteiligt war, der verliert allerdings ein wenig an Respekt vor dieser scheinbar eindrucksvollen Hürde. Oftmals bleibt es bei eher unverbindlichen Anregungen zu einzelnen Details, da sich die Gutachter*innen stillschweigend bemühen, mit dem Peer-Review-Verfahren [Wikidata, GND] die inhaltliche Kohärenz, aber auch die wirtschaftliche Kalkulation des gesamten Bandes nicht in Turbulenzen zu bringen. Der inflationsbedingte Wertverlust des Sammelbandes könnte mithin alsbald auch das Peer-Review [Wikidata, GND] erfassen.
Doch ist die Kunstgeschichte insbesondere jenseits des englischen und amerikanischen Buchmarktes noch weit davon entfernt, dass ein geordnetes Peer-Review [Wikidata, GND] als Standard für Sammelbände gilt. Da zudem die Verlage in aller Regel keinerlei Einfluss mehr auf die Inhalte nehmen, liegt die Verantwortung für die Auswahl oftmals allein in den Händen der Herausgeber*innen. Entsprechend vielgestaltig ist das Bild, das sich den Leser*innen präsentiert: Neben hervorragend konzipierten Sammelbänden mit Beiträgen von hoher Qualität und entsprechendem Originalitätsgrad finden sich Publikationen mit deutlich schwächeren Aufsätzen und allzu lockerem Zusammenhalt. Ob ein bestimmter Aufsatz eher der ersten oder der zweiten Kategorie zuzurechnen ist, weiß die Leserin oder der Leser allerdings erst nach der Lektüre. Auf diese Weise verschärft sich das Problem, dass die Publikationsfülle lähmend zu werden droht oder aber zu einer Lektüre-Auswahl zwingt, die letztlich arbiträren Kriterien oder allein der Intuition folgt.
Die nach meinem Eindruck weiterhin ungebremste Zunahme der Sammelbände hat ein weiteres Problem zur Folge, das mindestens so schwerwiegend ist wie die Probleme der Qualitätssicherung. Mit den Sammelbänden steigt die Zahl jener Veröffentlichungen, die anlassbezogen entstehen, sodass in der täglichen Arbeitspraxis von Kunsthistoriker*innen weniger Zeit bleibt für Publikationen, die intrinsisch motiviert sind und sich aus einem offenen Forschungsprozess ergeben. Über alle Qualifikationsstufen hinweg lässt sich insbesondere im deutschsprachigen Raum beobachten, dass Veröffentlichungen, die nicht für einen bestimmten Anlass oder vordefinierten Kontext verfasst werden, seltener werden. Es liegt auf der Hand, dass diese Entwicklung etwas mit unserer Forschungspraxis macht. Vielfach merkt man den so entstehenden Texten an, dass sie mit mehr oder weniger Gewalt auf den Anlass oder Rahmen hin angepasst werden, wenn etwa Schlüsselbegriffe, die sich für den Aufsatz selbst in keiner Weise aufdrängen, verwendet werden, um die Verknüpfungen zum Sammelband zu unterstreichen, oder wenn Ansätze und Forschungsperspektiven auf Gegenstände appliziert werden, deren konkrete Analyse eher zu anderen Fragestellungen Anlass gäbe. In dieser Entwicklung dürfte eine weitere Ursache dafür zu suchen sein, dass mehr und mehr über Effekte des Mainstreamings geklagt wird. Denn ein Beitrag, der für einen konkreten Anlass konzipiert wird, neigt naturgemäß in besonders hohem Maße dazu, die mit diesem Anlass verbundene Agenda und Terminologie aufzugreifen.
Die skizzierten Entwicklungen – thematische Expansion und quantitative Zunahme, Verengungen im Rezeptionsverhalten, schleichende Schwächung der Vielsprachigkeit, Tendenz zur Partikularisierung des Faches, offene Fragen der Qualitätskontrolle [Wikidata, GND] und Mangel an Zeit für intrinsische, nicht anlassbezogene Aufsätze – stehen im Kontext eines umfassenderen, einschneidenden Umbruchs im wissenschaftlichen Publikationswesen, von dem ich nur einige wenige Aspekte kurz in Erinnerung rufen kann. Es ist vermutlich auf den Siegeszug des Computers zurückzuführen, dass es selbstverständlich geworden ist, Aufgaben, die früher in den Händen professioneller Expert*innen lagen, den Autor*innen zu übertragen.9 Professionelle, detailliert am Text arbeitende, verlagsseitige Lektorate sind inzwischen eher die Ausnahme als die Regel; und auch Satz, Layout und Gestaltung werden schon seit Langem häufig von den Autor*innen besorgt. Betrachtet man diese Praktiken mit etwas Distanz, so muss ihr Sinn sehr zweifelhaft erscheinen. Zum einen wird durch diese Entdifferenzierung von Aufgaben die Qualität von Lektorat und Satz in vielen wissenschaftlichen Veröffentlichungen beeinträchtigt; zum anderen erweist sich eine Praxis, die als Kostensenkung ausgeflaggt wird, de facto als bloße Kostenverschiebung. Nun sind es die vergleichsweise teuren Arbeitsstunden von Wissenschaftler*innen, die darin investiert werden, auf dilettierende Weise Arbeitsgänge zu vollziehen, die von professionellen und routinierten Lektor*innen beziehungsweise Setzer*innen ungleich schneller geleistet werden könnten.
Diese Verlagerung hat nicht unwesentlich zu einer Entsolidarisierung zwischen Wissenschaftler*innen einerseits und Verlagen andererseits beigetragen, die sich allenthalben beobachten lässt. Allzu viele Autor*innen haben den Eindruck gewonnen oder gar selbst die Erfahrung gemacht, dass nicht wenige – wenngleich sicherlich nicht alle – Verlage kaum mehr zu dem eigentlichen Produkt, dem Buch, beitragen und ihre Rolle auf eine oftmals eher lockere Programmgestaltung sowie auf den Vertrieb beschränken. Warum, so wird immer häufiger gefragt, sollen für dieses vergleichsweise enge Leistungsspektrum noch Druckkostenzuschüsse gezahlt und Nutzungsrechte, das heißt potenzielle wirtschaftliche Erträge, abgetreten werden?
Die Open-Access-Bewegung [Wikidata, GND], die die Wissenschaften längst auch auf institutioneller Ebene erreicht hat (der sogenannte „Plan S“ steht hier nur für die Avantgarde einer deutlich breiteren Entwicklung), spitzt die Entfremdung zwischen Autor*innen einerseits und Verlagen und Verwertern andererseits noch zu. Sie stellt gerade Kunsthistoriker*innen aber auch vor neue Probleme – insbesondere dann, wenn Drittmittelförderungen mit Vorgaben zur Publikation im Open Access [Wikidata, GND] verbunden werden und zugleich das Einholen und Vergüten von Bildrechten für global frei verfügbare Publikationen unverhältnismäßig hohe Kosten verursachen kann. Wie der Verband Deutscher Kunsthistoriker im Rahmen einer Stellungnahme zum „Plan S“ dargelegt hat, droht vor allem die Publikationspraxis im Fach Kunstgeschichte angesichts solcher Rahmenbedingungen vor große, teils vielleicht unüberwindliche Probleme gestellt zu werden.10 Die inzwischen verabschiedete Umsetzungsrichtlinie des „Plan S“ bietet keinen Anlass zur Entwarnung. Der lapidare Hinweis, „third-party content included in a publication (for example images or graphics) is not affected by these requirements“,11 löst das Problem der Bildrechte nicht, sondern könnte allenfalls zur Folge haben, dass kunsthistorische Publikationen in Zukunft in zweierlei Gestalt erscheinen könnten: zum einen komplett, mit Abbildungen, allerdings unter beschränkter Zugänglichkeit, zum anderen frei verfügbar, aber der Abbildungen beraubt. Für solche gleichsam gespaltenen Publikationsformen dürfte sich jedoch kaum ein stabiler Markt herausbilden, sodass im schlimmsten Fall eine zunehmend bilderlose Kunstgeschichte droht, weil die hohen Vergütungsforderungen für Abbildungen in global frei verfügbaren Publikationen nicht finanzierbar sind. Die Lösung kann freilich nicht in einer dauerhaften Einschränkung des Open Access [Wikidata, GND] für kunsthistorische Veröffentlichungen bestehen. Vielmehr müssen alle Bemühungen dem Anliegen gelten, die Wissenschaftsschranke im Urheberrecht, insbesondere das Zitatrecht, zu erweitern, um sachfremde Einschränkungen wissenschaftlicher Publikationen im Feld der Kunstgeschichte zu überwinden. Im Zuge der Umsetzung der im April 2019 verabschiedeten Europäischen Urheberrechts-Richtlinie eröffnet sich die Chance, zumindest die Nutzung gemeinfreier Werke besser vor Einschränkungen durch Rechteinhaber an Lichtbildern zu schützen.12
Überhaupt bleibt die Bildrechte-Problematik ein beherrschendes Thema im kunsthistorischen Publikationsalltag, wie nicht zuletzt die anhaltend hohe Nachfrage nach den entsprechenden Workshops des Verbands Deutscher Kunsthistoriker zeigt. Das Fach scheint in seiner herrschenden Praxis weit davon entfernt zu sein, den aktuell geltenden Vorgaben verlässlich gerecht zu werden. Zugleich fällt es uns aber auch immer noch schwer, unsere berechtigten Anliegen in den Diskussionen um urheberrechtliche Fragen geltend zu machen. Auch hier bemüht sich der Kunsthistoriker-Verband derzeit um Verbesserung.13 Der Weg ist aber noch weit und dornenreich.
Zu den aktuellen Herausforderungen, denen sich unser Fach stellen muss, zählt nicht zuletzt die Frage, wie neue digitale Publikationsformate (Blogs [Wikidata, GND], Datenbanken [Wikidata, GND] etc.) als eigene wissenschaftliche Leistungen anerkannt und evaluiert werden können. Unsere überkommenen Verfahren der Bewertung messen neuen Formen der Sicherung und Veröffentlichung von Forschungsergebnissen in keiner Weise den Stellenwert zu, den sie in der Praxis oftmals schon haben. In das überkommene Format der Publikationsliste lassen sie sich allenfalls mit Gewalt zwängen. Es bedarf daher der Herausbildung grundlegend neuer Praktiken und Konventionen in der Bewertung individueller Forschungsleistungen, damit die Dynamik, die den neuen Formaten eigen sein kann, nicht durch falsche Anreize gebremst wird.
Alles in allem ist die Lage mithin keineswegs so rosig, wie die Betriebsamkeit und Vielfalt der kunsthistorischen Publikationslandschaft auf den ersten Blick nahelegen mag. Vielen Problemen und Fragen weichen wir noch immer aus. Nach meinem Eindruck bleibt das Fach in Fragen der Veröffentlichungspraxis allzu passiv und abwartend. Auf diese Weise setzt es sich in einer Situation, in der grundlegende Veränderungen der wissenschaftlichen Publikationspraxis zu erwarten sind und sich teilweise schon vollziehen, zunehmend der Gefahr aus, durch Entwicklungen fremdbestimmt zu werden, auf die unsere Disziplin selbst kaum Einfluss nimmt.
Es liegt auf der Hand, dass Wissenschaftler*innen mit ihrem individuellen Publikationsverhalten oder mit einzelnen Sammelband-Projekten auf diese Entwicklungen nur sehr eingeschränkt Einfluss nehmen können. Das Fach muss sich offenkundig stärker organisieren, wenn es nicht nur Spielball laufender oder kommender Veränderungen sein will. Es muss dabei meines Erachtens auch die Bereitschaft zeigen, überkommene Routinen und Praktiken zu überdenken, und sollte sich der Frage stellen, ob die von mir skizzierte Expansion und Beschleunigung des Publizierens mit all ihren Nebeneffekten – Verengungen in der Rezeption, Rückgang der Vielsprachigkeit, Partikularisierung der Fachdiskurse etc. – ungesteuert fortzusetzen ist.
Neben anderen Akteuren – wie Institutionen und Verlagen – könnte dabei den Fachzeitschriften [Wikidata, GND] eine besondere Bedeutung zukommen. Sie gehören zu den wenigen zumindest halbwegs institutionalisierten Instanzen in unserem Fach, die über lange Zeiträume hinweg Publikationspraktiken beobachten und zugleich mitprägen. In den Zeitschriftenredaktionen [Wikidata, GND] kann daher im besten Fall ein Erfahrungsschatz erworben werden, über den einzelne Kunsthistoriker*innen gewöhnlich nicht verfügen.
Fachzeitschriften [Wikidata, GND] haben es allerdings in der aktuellen Publikationslandschaft nicht gerade leicht. Die Verlagerung der Publikationspraxis auf Sammelbände und andere Veröffentlichungsformen kann traditionelle Periodika [Wikidata, GND] auch in Zeiten einer allgemeinen Expansion vor das Problem stellen, nicht hinreichend viele Manuskripte von sehr guter Qualität zu erhalten, weil den potenziellen Autor*innen immer weniger Zeit für Texte bleibt, die nicht bereits für einen bestimmten Tagungs- oder Sammelband konzipiert werden. Zudem lenkt die Herausbildung von spezialisierten Diskursen und entsprechenden Publikationsformaten die Aufmerksamkeit von jenen Fachzeitschriften [Wikidata, GND] ab, die das Fach in seiner ganzen Breite vertreten. Dabei gibt es weiterhin viele gute Gründe, das Zeitschriftenwesen [Wikidata, GND] zu nutzen und aktiv zu fördern. Periodika [Wikidata, GND] bieten Foren, in denen Texte zur Diskussion gestellt werden können, die intrinsisch, aus der Eigendynamik des Forschungsprozesses heraus entstanden sind und nicht mehr oder weniger zwanghaft auf einen äußeren Anlass hin perspektiviert wurden. In gleich mehrfacher Hinsicht bürgen Zeitschriften [Wikidata, GND] für Qualität und insbesondere für eine signifikante Verbesserung von bereits guten Texten: Zum einen trägt das Peer-Review [Wikidata, GND] nicht allein zur Qualitätskontrolle bei der Auswahl bei, sondern dient insbesondere auch dazu, den jeweiligen Beitrag auf der Basis differenzierter Rückmeldungen in seiner Argumentation zu verbessern. Zum anderen profitieren Zeitschriftenbeiträge [Wikidata, GND] – anders als viele Texte in Sammelbänden – von der Betreuung durch eine professionelle Redaktion mit meist langjähriger Erfahrung, sodass auch die sprachliche und formale Gestaltung der inhaltlichen Qualität entspricht.
Da gute Zeitschriften [Wikidata, GND] für jegliche Einsendung grundsätzlich offen sind und ihre Autor*innen gerade nicht über persönliche Kontakte und Netzwerke gewinnen, bieten sie insbesondere jüngeren Wissenschaftler*innen, die sich noch keinen Namen gemacht haben, eine hervorragende Möglichkeit, sich mit klugen neuen Beiträgen zu präsentieren. Dabei stellt das Double-blind-Peer-Review [Wikidata, GND] sicher, dass sich die externen Gutachterinnen und Gutachter nicht an der Prominenz des Namens orientieren können, sondern sich allein auf die Qualität des Textes konzentrieren müssen. Allerdings ist es gerade das Peer-Review [Wikidata, GND], das auffällig häufig zum Gegenstand einer grundsätzlichen Kritik wird, die Verzögerungen im Publikationsprozess moniert, den hohen Zeitaufwand bemängelt, Zufälle und Inkonsistenzen vorherrschen sieht, Befangenheiten und Missbrauch befürchtet oder eine konservative Bevorzugung des Mainstreams auszumachen meint.14 Nach meinem Eindruck beruht diese Kritik jedoch nicht selten auf allzu pauschalen Begründungen, die zu wenig zwischen verschiedenen Fachkulturen differenzieren oder auch die Begutachtung von Forschungsanträgen und Publikationen über einen Leisten schlagen.15 Dabei macht es zum Beispiel einen erheblichen Unterschied, ob man das Peer-Review [Wikidata, GND] in experimentellen Disziplinen einsetzt, die zur Qualitätskontrolle auch Replikationen heranziehen könnten, oder ob es in den diskursiven Geistes- und Kulturwissenschaften [Wikidata, GND] praktiziert wird. Die vielleicht triftigste Kritik, die bisher gegen das Peer-Review [Wikidata, GND] vorgebracht wurde, beruht auf Studien, in denen anhand gezielt manipulierter Manuskripte aus der medizinischen Forschung festgestellt wurde, dass Peer-Review-Verfahren [Wikidata, GND] nur begrenzt dabei helfen, handfeste Fehler oder betrügerische Angaben in eingereichten Aufsätzen herauszufiltern.16 Allerdings stellen sich derartige Probleme in den sciences grundlegend anders dar als in den humanities, in denen ein gutes, sinnvolles Peer-Review [Wikidata, GND] kaum darüber urteilt, ob ein Aufsatz zweifelsfrei „richtige“ Resultate erbringt, sondern ob er kluge Beobachtungen und sinnvolle neue Argumente zu einer ohnehin in der Regel kaum abschließbaren Forschungsdiskussion beiträgt. Gerade aber für die Kultur- und Geisteswissenschaften fehlt es weitgehend an Forschungen zur Funktionsweise des Peer-Review und an differenzierten Diskussionen über Möglichkeiten der Verbesserung.17
Viele der kritischen Argumente gegen das Peer-Review [Wikidata, GND] betreffen bei näherem Hinsehen nicht das Prinzip, sondern spezifische Formen der Anwendung und Nebeneffekte, die keineswegs unausweichlich sein müssen. So wird oftmals die Rolle der Herausgeber*innen unterschätzt, die gleichsam als Gutachter der Gutachter prüfen müssen, ob die in den Reviews vorgebrachten Argumente stichhaltig und fair sind.18 Zu den Aufgaben auf Herausgeberseite zählt es daher nicht zuletzt, jene Gutachten in ihrem Aussagewert zu relativieren, die einen Text allein daran messen, wie der Gutachter selbst den Gegenstand oder die Fragestellung behandelt hätte. Sofern Herausgeberinnen und Herausgeber den Urteilen der „Peers“ nicht stets blind folgen, können sie durch kluge Abwägungen dem viel kritisierten Effekt der Bevorzugung eines Mainstreams entgegenwirken.
Dem Double-blind-Peer-Review [Wikidata, GND] in Zeitschriften [Wikidata, GND] täte es zudem gut, wenn es nicht indirekt mit falschen Erwartungen oder Aufgaben überfordert würde. Denn Probleme wirft vielleicht weniger das Peer-Review [Wikidata, GND] selbst auf, als vielmehr der „symbolische[ ] Status, den es heute genießt“19 und der ihm in sachfremden Zusammenhängen allzu hohe Bedeutung beimisst. Dass Publikationen in bestimmten Journalen [Wikidata, GND] inzwischen auch über Karrieren oder die Erfolgsaussichten von Anträgen entscheiden können, ist kein Naturgesetz, sondern stellt das Verfahren des Peer-Reviews [Wikidata, GND] im Zeitschriftensektor [Wikidata, GND] eher vor unnötige Probleme. Derartige Übergewichtungen von Urteilen im Publikationsprozess sollten entschieden zurückgewiesen werden, um die Vorzüge des Peer-Reviews [Wikidata, GND] nicht zu gefährden. Die tägliche Praxis bei der Mitarbeit an der Zeitschrift [Wikidata, GND] für Kunstgeschichte, die ich bis 2019 mitherausgegeben habe, hat mir gezeigt, dass das Peer-Review [Wikidata, GND] weit über die gatekeeper-Funktion hinaus vor allem dazu beitragen kann, die eingereichten Aufsätze (auch jene, die nicht zum Druck angenommen werden) substanziell zu verbessern.20 Überhaupt gilt es, falsche Essenzialisierungen des Peer-Reviews [Wikidata, GND] zu vermeiden. Der Soziologe Stefan Hirschauer hat bereits 2004 einen Gedanken von Stevan Harnad aufgegriffen und den Vorschlag gemacht, in der klassischen Publikationsbegutachtung „kein wissenschaftliches Messverfahren für die Güte von Publikationen, sondern eine soziale Einrichtung zur Kalibrierung der Lesezeit einer Disziplin“21 zu sehen. Sofern man das Peer-Review [Wikidata, GND] nicht mit Erwartungen und Ansprüchen überfrachtet, kann es sich auch heute noch als ein sinnvoller Weg erweisen, mit verteilten Kräften an der Qualität wissenschaftlicher Texte zu arbeiten. Das Peer-Review [Wikidata, GND] nicht unnötig zu verabsolutieren, impliziert aber auch, dass es die öffentliche kritische Diskussion von publizierten Texten in keiner Weise ersetzen kann und soll. Ein gutes Peer-Review [Wikidata, GND] immunisiert einen Text nicht gegen kontroverse Diskussionen, sondern trägt dazu bei, dass seine Argumente möglichst gut gerüstet in Debatten eingehen können.
Als ein bisher zu wenig erkannter Nebeneffekt des Peer-Reviews [Wikidata, GND] kann der Umstand gelten, dass seine regelmäßige routinisierte Anwendung dazu beiträgt, in den Herausgeberkreisen und Redaktionen von Zeitschriften ein vielfältiges praktisches Wissen und tacit knowlegde über die Forschungs- und Publikationskultur eines Faches zu aggregieren. Als Langzeitunternehmen, die über einen situativen Aktionsradius hinaus Bestand haben und wirken, können Zeitschriften [Wikidata, GND] zudem einen wichtigen Beitrag dazu liefern, wie sich die Disziplin selbst versteht und miteinander kommuniziert. Neben großen Kongressen und Kunsthistorikertagen oder Institutionen wie dem Zentralinstitut für Kunstgeschichte lassen sich Periodika [Wikidata, GND] als einige jener vergleichsweise wenigen Orte verstehen, an denen das Fach in seiner gesamten Breite repräsentiert werden kann. Die Frage, in welcher Form das geschieht, kann wichtige Impulse und Signale in das Fach geben. Das gilt zum Beispiel für die Vielsprachigkeit. Zeitschriften [Wikidata, GND], die gezielt Aufsätze in mehreren Sprachen abdrucken und zudem in ihrem Rezensionsteil darum bemüht sind, Bücher durch Besprechungen in einer jeweils von der Sprache des Buches abweichenden Fremdsprache bekannt zu machen,22 können vor Augen führen, wie gewinnbringend es ist, die Vielsprachigkeit unseres Faches zu pflegen.
Das Fundament, das erforderlich ist, damit Zeitschriften [Wikidata, GND] diesen Beitrag zur Fortentwicklung unseres Faches liefern können, ist allerdings alles andere als stabil. Wie das gesamte Publikationswesen stehen Zeitschriften [Wikidata, GND] vor einer Phase tiefgreifender Veränderungen, mit denen sich neue Chancen, aber auch Herausforderungen und Hindernisse auftun. Die Überführung der Zeitschriften [Wikidata, GND] ins digitale Zeitalter ist dringend über die bloße digitale Bereitstellung [Wikidata, GND] von Kopien der gedruckten Bände hinaus weiterzuführen. Zeitschriften [Wikidata, GND] bieten exzellente Korpora für Untersuchungen mit den Mitteln der Digital Humanities, zu denken ist insbesondere an das sogenannte Data-Mining. Diese Bestände müssen freilich zunächst so aufbereitet und verfügbar gemacht werden, dass sich derartige Analysen durchführen lassen, wobei kunsthistorische Zeitschriften [Wikidata, GND] besonderen Anlass dazu böten, die Bemühungen um eine Form der Erschließung zu intensivieren, die die Bilddaten gleichermaßen anspruchsvoll erfasst wie die Texte.
Alle rechtlichen und wirtschaftlichen Fragen, die derzeit für Verunsicherung im Publikationswesen sorgen, werfen für Zeitschriften [Wikidata, GND] mit ihrem langfristigen Charakter besondere Probleme auf. Für einen einzelnen Sammelband sind die Fragen, die mit einer Publikation im Open Access [Wikidata, GND] einhergehen, vergleichsweise überschaubar und beherrschbar. Zeitschriften [Wikidata, GND] stehen hier indes vor größeren Herausforderungen; sie müssen Zukunftsstrategien entwickeln, die auch in vielen Jahren noch Bestand haben können und nicht unerwartete rechtliche oder wirtschaftliche Schwierigkeiten aufwerfen. Für kunsthistorische Zeitschriften [Wikidata, GND] dürften die Hürden bei der Etablierung einer langfristig tragfähigen Open-Access-Strategie [Wikidata, GND] besonders hoch sein, da sie nicht nur die Urheberrechte ihrer Beiträger sowie mögliche Nutzungsrechte von Verlagen oder Verwertern bedenken müssen, sondern auch durch Rechte an abgebildeten Werken sowie durch den sogenannten Lichtbildschutz in ihren Handlungsmöglichkeiten eingeschränkt werden. Es ist gut möglich, dass die Fesseln des Bildrechtes, die auch mit der jüngsten Reform, dem sogenannten Urheberrechts-Wissensgesellschafts-Gesetz (UrhWissG), nicht hinreichend konsequent gelöst wurden, in nächster Zeit das größte Hindernis bei der Implementierung von Open Access [Wikidata, GND] in der Kunstgeschichte darstellen. Und dennoch führt nach meinem Eindruck kein Weg daran vorbei, Zeitschriften [Wikidata, GND] zeitnah in eine digitale Zukunft [Wikidata, GND] und in ein Open-Access-Format [Wikidata, GND] als Regelfall zu überführen. Aus der Fülle der Argumente, die in den jüngeren Diskussionen immer wieder angeführt werden,23 sei stellvertretend auf eines verwiesen, das beinahe schon in Vergessenheit zu geraten droht: An einer breiten Implementierung von Open Access [Wikidata, GND] sollte uns nicht zuletzt deswegen gelegen sein, weil die derzeitige Situation Kolleg*innen, die nicht auf eine gut ausgebaute wissenschaftliche Infrastruktur von Universitäten und Bibliotheken zurückgreifen können, systematisch benachteiligt. Die aktuelle Praxis der Verwertung von Urheber- und Nutzungsrechten trägt erheblich dazu bei, die westliche Hegemonie im Feld der Wissenschaften auf zweifelhafte Weise zu perpetuieren und zu verstärken. Das kann jedoch nicht in unserem Sinne sein, da sich die Wissenschaften auf diese Weise der Chance begeben, westliche Blickverengungen aufzubrechen.
Fachzeitschriften [Wikidata, GND] müssten mit ihrer über lange Zeiträume hinweg erworbenen Expertise und ihrem praktischen Wissen eigentlich maßgeblich an der zukünftigen Weiterentwicklung der kunsthistorischen Publikationslandschaft beteiligt sein. Sie böten sich besonders nachdrücklich an, um als Vorreiter einer umsichtigen Open-Access-Strategie [Wikidata, GND] und konsequenten Digitalisierung [Wikidata, GND] zu fungieren. Die Realität sieht allerdings überwiegend anders aus. Soweit ich sehe, arbeiten zumindest im deutschsprachigen Raum alle kunsthistorischen Fachzeitschriften [Wikidata, GND] auf einer derart fragilen und prekären wirtschaftlichen und personellen Basis, dass kaum Freiraum bleibt, um sich mit strategischen Überlegungen in übergreifende Diskussionen einzubringen. Für die Herausgeber*innen ist das Engagement für die Zeitschrift [Wikidata, GND] durchweg ein Ehrenamt, bei dem bereits die Erledigung der dringlichsten Aufgaben das eigene Zeitbudget erheblich belastet. Die Redakteur*innen wiederum, die in der Regel nur mit einem Teil ihrer Arbeitskraft für die Zeitschriften [Wikidata, GND] tätig sind, werden ihrerseits durch die aufwendigen redaktionellen Abläufe gebunden. Vor allem aber haben viele Zeitschriften [Wikidata, GND] selbst so sehr mit Unsicherheiten zu ringen, dass alle Kräfte für das Tagesgeschäft und die eigene Zukunftssicherung benötigt werden. Abgesehen von den glücklichen Ausnahmen, in denen die Redaktion institutionell dauerhaft verankert und durch entsprechende Budgets gesichert ist (das dürfte bei der Kunstchronik, den Mitteilungen des Kunsthistorischen Institutes in Florenz und dem Römischen Jahrbuch der Bibliotheca Hertziana der Fall sein), ist in der Regel nicht einmal die mittel- und langfristige Finanzierung der Redaktion gewährleistet. Zeitschriften [Wikidata, GND] haben nicht den Charakter abschließbarer Projekte und fallen daher durch alle Raster der gängigen Wissenschaftsförderer. Zudem meiden Universitäten inzwischen eine langfristige Bindung von Mitteln, die im Wesentlichen einer Serviceleistung dienen, die gerade nicht auf die eigene Hochschule beschränkt bleibt. Fachzeitschriften [Wikidata, GND] stehen daher immer wieder vor der Frage, wie sich überhaupt das Fundament ihrer Arbeit, die Redaktion, sichern lässt.
Vor allem im deutschsprachigen Raum hat man sich offenkundig allzu lange darauf verlassen, dass diese wichtigen Aufgaben nebenher an Lehrstühlen oder aber in der Freizeit selbstloser Wissenschaftler*innen erledigt werden. Wenn wir im Zuge der skizzierten Umbrüche, denen die gesamte Publikationslandschaft ausgesetzt ist, nicht grundsätzlich neue Wege finden, wie wir eine qualitativ hochwertige Arbeit unserer Zeitschriften [Wikidata, GND] aufrechterhalten oder gar ausbauen können, werden wir mittelfristig vermutlich ein schleichendes Siechtum und langsames Sterben vieler Traditionszeitschriften [Wikidata, GND] erleben. Dann würden das Pantheon (mit dem Jahrgang 2000 eingestellt), das Städel-Jahrbuch (2009) und die Gazette des Beaux-Arts (2002) keine Einzelfälle bleiben.
Wenn es uns aber gelingt, dieses zentrale, wenngleich bisweilen unterschätzte Segment der kunsthistorischen Publikationslandschaft nachhaltig zu sichern und auf eine verlässliche Basis zu stellen, könnten gerade die Zeitschriften erheblich dazu beitragen, dass sich das Fach in Fragen des Publizierens nicht bloß von Entwicklungen treiben lässt, sondern diese Entwicklungen selbstbewusst und gezielt mitgestaltet. Dann ließe sich zuversichtlich an all jenen Baustellen arbeiten, die ich skizziert habe.
ORCID®
Johannes Grave https://orcid.org/0000-0003-0106-6522
Publizieren, um – nicht – gelesen zu werden?
Wenn ich selbst entscheiden kann, wie ich bei einer Tagung oder in den biografischen Notizen unter einem Text bezeichnet werden will, sage ich „Kulturwissenschaftler und freier Autor“. Das heißt, dass ich mich über das Schreiben und Publizieren definiere. Bis 2015 lautete die entsprechende Angabe noch „Professor für Kunstwissenschaft und Medientheorie“. Dass ich also noch nicht so lange als freier Autor firmiere und dafür auch meinen Beamtenstatus aufgegeben habe, dürfte umso mehr nach überzeugter Identifikation klingen. Allerdings hat sich für mich durch den Statuswechsel gar nicht so viel verändert. „Forschung und Lehre“ hieß für mich ebenfalls bereits, Erkenntnisse und Thesen möglichst in schriftliche Form zu bringen und öffentlich zu machen. Wissenschaft lebt von Transparenz; nur was publiziert wird, kann auch überprüft, diskutiert, korrigiert oder erweitert werden. Die Bezeichnung „freier Autor“ sagt im Unterschied dazu erst einmal nur, dass ich meiner forschenden und publizistischen Tätigkeit außerhalb einer Institution und jenseits von Antragswissenschaft nachgehe. Aber letztlich sagt die Bezeichnung dann doch viel mehr. Zeugt sie nicht von dem Vertrauen, mit Publikationen den eigenen Lebensunterhalt bestreiten zu können? Die titelgebende Frage meines Beitrags könnte also genauso lauten: Publizieren, um – nicht – leben zu können?
Woher aber kommt das Vertrauen in die existenzsichernden Kräfte des Publizierens? Und wie kann jemand dieses Vertrauen haben, der weder Literatur noch Reportagen oder Drehbücher schreibt? Tatsächlich bekomme ich die meisten skeptischen, besorgten, ungläubigen Fragen von Leuten, die in ähnlichen Fächern tätig, dabei aber fest angestellt sind – viel seltener von Menschen, die ihr Geld in ganz anderen Bereichen verdienen. Das mag damit zu tun haben, dass Fachfremde zu wenig Ahnung von den Verhältnissen in den Geisteswissenschaften haben, es dürfte aber mindestens ebenso sehr daran liegen, dass die Vertreter von letzteren generell und habituell besonders zaghaft eingestellt sind, wenn es um die Bewertung der eigenen Chancen und Fähigkeiten geht. Tatsächlich dürfte es in kaum einem anderen Metier so große Selbstachtungsdefizite und Defensivhaltungen geben wie unter Geisteswissenschaftler*innen. Manchmal bezweifeln sie sogar die eigene Wissenschaftlichkeit, und leider erheben viele von ihnen weder Ansprüche auf breitere Aufmerksamkeit und Anerkennung für ihre Publikationen noch darauf, aktuelle Debatten mit ihren Stimmen zu bereichern.
Weitere Gründe kommen hinzu, weshalb viele zu der Grundeinstellung neigen, das, was sie veröffentlichten, werde ohnehin nicht gelesen und sei letztlich nicht so wichtig. So geht gerade in der Kunstgeschichte – mehr als etwa in der Soziologie oder in der Politologie – der Verdacht um, die großen Zeiten des Fachs lägen in der Vergangenheit; man könne bestenfalls gegen einen weiteren Bedeutungsverlust anschreiben, komme aber letztlich zu spät. Was also ist von dem Selbstbewusstsein geblieben, mit dem ein Wissenschaftler wie Heinrich Wölfflin nach allgemeingültigen Formeln der Stilentwicklung suchte oder das einen Kunstschriftsteller wie Julius Meier-Graefe dazu brachte, Urteile über Künstler mit der Autorität eines letztinstanzlichen Richters zu fällen? Dabei ist andererseits überall vom „Iconic Turn [Wikidata, GND]“ und von der wachsenden Bedeutung von Bildern die Rede. Gerade Kunst- und Bildwissenschaftler*innen könnten und sollten also eigentlich größeren Stellenwert, mehr öffentliche Resonanz haben als früher.
Doch werden auch aus der Diagnose einer wachsenden Bildermacht lieber gegenteilige Schlüsse gezogen – und man mutmaßt, dass Texte und Diskurse insgesamt künftig keine so große Rolle mehr spielen, die Epoche der Schrift also zu Ende geht. Was aber soll Wissenschaft dann überhaupt noch sein? Ist ihre Zeit dann nicht auch vorbei? Oder müsste sie sich vollständig reformieren, um zeitgemäß zu sein, ja um in einer Gesellschaft Geltung haben zu können, in der Evidenzen und Emotionen zunehmend eher mit Bildern als mit Worten geschaffen werden?
Tatsächlich sprechen die technischen Möglichkeiten von Jahr zu Jahr mehr dafür, zur Vermittlung von Wissen und als Ort für Debatten lieber auf multimediale Formate zu setzen statt weiter logozentrisch zu agieren. Doch auch jenseits von Veränderungen, die sich aus der Digitalisierung ergeben, lässt sich schon länger vielfach eine Konjunktur von Spielarten des Demonstrierens und Zeigens – auf Kosten von Schrift und Sprache – erkennen. Gerade hinsichtlich des Umgangs mit Kunst ist sicher die Karriere des Mediums „Ausstellung“ am eindrucksvollsten. Lange eher als Pranger und Entfremdungsinstrument wahrgenommen, traut man Ausstellungen seit einigen Jahrzehnten nahezu alles zu, ja glaubt offenbar, durch geschickte Auswahl und Anordnung von Exponaten lasse sich beliebig viel Erkenntnis hervorbringen. Entsprechend sind nicht mehr Kunstschriftsteller, Kritiker und Wissenschaftler, also Vertreter schreibender Berufe, sondern Kurator*innen – Profis des Zeigens – Leitfiguren des Kunstbetriebs.
Sofern das Wort doch noch eine Rolle spielt, ist es aber – auch das eine immer manifestere Entwicklung – zunehmend das gesprochene und nicht das geschriebene Wort. Interviews und Podiumsdiskussionen boomen, und in der digitalen Welt finden Podcasts und YouTube-Channels selbst bei denen viel Resonanz, die bis vor kurzem noch eindeutig – schriftfixierte – Büchermenschen waren. Für die jüngere Generation gilt das umso mehr – hier ist YouTube eine wichtigere Quelle für Wissen und Orientierung als Wikipedia und im Geist von Schriftlichkeit Geschriebenes weniger Teil des Alltags als eine Gegenwelt.
Wie kann man sich unter solchen Umständen noch als freier Autor begreifen, wie nach wie vor darauf beharren, Bücher zu publizieren – und wie überhaupt schreiben? Wenn man (wie ich) schon ein wenig länger publizistisch tätig ist, sind die angesprochenen Veränderungen natürlich auch direkt zu spüren. Auflagen von Büchern werden kleiner, Rezensionen weniger, man wird seltener von Leser*innen kontaktiert. Dafür bekommt man Mails von Studierenden, die ein Referat über ein Buch halten sollen, es aber nicht lesen wollen, sondern darum bitten, dass der Autor ihnen Fragen dazu beantwortet. Für Journalist*innen gilt das noch mehr. Man muss also, je mehr man geschrieben hat, desto öfter darüber reden, hat also gleichsam doppelte Arbeit. Dabei droht das, was man in der schriftlichen Formulierung schon mal auf den Punkt gebracht hatte, in der Rückvermündlichung wieder ungenauer zu werden. Aber es gilt als O-Ton – und das ist meist wichtiger.
Wird man zu einer Lesung eingeladen, soll man ebenfalls keinesfalls mehr lesen, sondern erzählen oder sich interviewen lassen. Doch wird das Publikum dadurch nicht etwa neugierig auf das Buch, vielmehr haben die meisten, nachdem sie den Autor ja schon live gesehen und gehört haben, das Gefühl, es gar nicht mehr lesen (und kaufen) zu müssen. Das Buch ist also nur Anlass für einen Abend, wie man als Autor auch sonst zu einer Podiumsdiskussion oder zu einem Vortrag zwar eingeladen wird, weil man ein Buch geschrieben hat, dieses jedoch weder von den Veranstaltern davor noch vom Publikum danach gelesen wird. Selbst halbwegs erfolgreiche Autor*innen leben somit kaum – weniger denn je – von ihren Büchern, aber dafür von den vielen Events, die mit ihnen bespielt werden.
Das ist keine durchwegs schlechte, auf jeden Fall aber eine paradoxe Situation. Als Autor kann man daher nämlich nur überleben, wenn man willens und fähig ist, auch aufzutreten und gerade nicht das zu tun, was man dem eigenen Selbstverständnis zufolge eigentlich tut und am liebsten tun will: schreiben. Entsprechend muss man sich ein wenig sorgen, ob man wohl auch noch eingeladen werden wird, wenn sich erst einmal feste Größen in den neuen Formaten etabliert haben, die – etwa als YouTuber oder Podcaster – von vornherein geübter und begabter darin sein dürften, zu performen, sich in Szene zu setzen und unterhaltsam zu sein. Doch noch ist es nicht so weit. Noch tingelt man als Autor von Pult zu Pult und Podium zu Podium – und darf sich dabei sogar ein klein wenig wichtig vorkommen.
Ist man zwischendurch wieder zuhause, schreibt man weiter an den Texten, vielleicht sogar am nächsten Buch. Doch wäre man ein nachlässiger und kurzsichtiger Autor, ließen einen die Erfahrungen mit so vielen Nicht-Leser*innen und so wenigen Leser*innen unbeeindruckt. Die berühmte Sinnfrage könnte sich stellen, aber genauso ist es möglich, sich in eine „Trotz alledem“-Haltung zu begeben. Ich selbst mache mir viele Gedanken darüber, wie sich Bücher schreiben ließen, die entgegen allen gegenläufigen Trends dennoch gelesen werden könnten. Und ich bin auch froh, dass ich mir solche Gedanken machen muss, denn ich bin überzeugt davon, dass es einer Sache guttut, wenn sie nicht selbstverständlich geschieht, sondern immer wieder neu begründet und neu angepasst werden muss. Die diversen Zweifel, die man als Autor und erst recht als geistes-und kunstwissenschaftlicher Autor heute haben kann, versuche ich also nicht zu verdrängen, sondern mich davon leiten zu lassen und sie als Treibstoff für Reflexion und Ausprobieren zu nutzen.
Von Buch zu Buch brauche ich daher aber auch länger, bis ich eine Form finde, die mich selbst überzeugt. Am Anfang steht meist die Vorstellung, eines der beliebten mündlichen Formate zu übernehmen und den gesamten Text als Interview oder Gespräch abzufassen. Würde das nicht leichter und lebendiger zu lesen sein als eine kompakte Abhandlung? Und gibt es dafür nicht auch berühmte Vorbilder – zumal aus Zeiten, in denen sich Formfragen ebenfalls schon stärker stellten oder in denen Medienumbrüche stattfanden? War etwas Ähnliches nicht sogar schon Platons Erfolgsrezept? Und ist Platon nicht ohnehin (einmal mehr) moderner denn je, weil er nicht nur Dialoge verfasst hat, sondern auch ein erklärter Kritiker der Schrift war? Er lebte in der gegenläufigen Umbruchszeit zu der, die aktuell begonnen hat, blickte also noch als Fremdling auf das Neuland „Schrift“ und kannte alle Vorbehalte ihr gegenüber. Das gewichtigste Argument ihr gegenüber lautete, dass ein geschriebener Text gleichsam tot, nur ein Notbehelf sei, mit dem die Gedanken eines Autors fixiert würden, der aber viel besser, wirkungsvoller, passgenauer agieren könne, wenn er selbst anwesend – mündlich präsent – sei.
Beim weiteren Konzipieren eines Buchs habe ich mich dann aber bisher doch jedes Mal wieder von der Adaption einer mündlichen Form verabschiedet; sie erscheint mir als Fake, ist zwar vielleicht mit weniger Hürden rezipierbar, entbehrt aber, außer sie würde ihrerseits manieriert, der Vorzüge des Schriftlichen, also etwa einer Verdichtung durch Leitmotive oder einer Systematisierung von Argumenten. Dennoch bleibt die Phase der Formfindung von dem Wunsch geprägt, den sich ändernden Ansprüchen möglicher Leser*innen entgegenzukommen. Gefälligkeit und Unterhaltsamkeit – so rede ich mir ein – sind dabei aber sicher nicht die einzigen Kriterien. Oder kann etwa nicht gerade die Verdichtung dazu führen, eine Lektüre zwar nicht einfacher, aber dafür intensiver zu machen – und auf diese Weise die Lesezeit – und letztlich die Lebenszeit – erfüllter werden zu lassen? Die Zeit anderer nicht zu verschwenden scheint mir tatsächlich einer der wünschenswertesten Imperative für Autor*innen zu sein, und zu überlegen, wie man Thesen anschaulicher, Argumente prägnanter und Beispiele ohne Geschwätzigkeit formuliert, kann – und sollte – immer wieder Ansporn sein. Das Buch ist dann bestenfalls ein Konzentrat – und im Extremfall gar nicht darauf angelegt, auf einmal und im Ganzen gelesen zu werden.
Dass nichts selbstverständlich und zugleich mehr denn je möglich ist, bedeutet also eigentlich eine Chance für die Gattung „Sachbuch“. Vielleicht könnte man daher sogar eine weitere Paradoxie diagnostizieren: Die wachsende Lese-Krise hat nicht zwangsläufig ein Nachlassen der Qualität zur Folge, vielmehr können die Zweifel, Skrupel und Überlegungen der betroffenen Autor*innen im Gegenteil sogar zu einer Verbesserung der Standards von Lesefreundlichkeit, eventuell aber auch zu innovativen Formen von Stil, Dramaturgie und Darstellung führen.
Um diese Vermutung beweisen (oder auch nur plausibel machen) zu können, müsste man jedoch möglichst viele heutige und – im Vergleich dazu – frühere Sachbücher lesen. Allerdings sind auch Autor*innen mittlerweile häufiger als früher Nicht-Leser*innen als Leser*innen – dies eine Beobachtung, von der ich mich selbst keinesfalls ausnehmen kann. Zwar wurde sicher zu allen Zeiten Lektüre gerne simuliert, weshalb als Gegenmittel sogar die Akademien gegründet wurden, die nicht zuletzt auf der Idee beruhen, ihre Mitglieder zum Studium der Schriften der anderen Mitglieder – also auf ein Leseethos – zu verpflichten. Doch heute gibt es dank der vielen Interviews und ähnlichen Formate simple und gute Möglichkeiten, Lektüre zu substituieren. Und warum sollten Autor*innen davon weniger Gebrauch machen als andere Interessierte? So bleiben viele der mutmaßlich guten Bücher auch unter Kolleg*innen weithin ungelesen. Die Autorentätigkeit selbst ist damit aber zugleich einsamer als früher, da man weniger in Reaktion auf andere Bücher – höchstens in Reaktion auf andere Positionen – schreibt. Das wiederum führt dazu, dass es auch weniger Verbundenheit unter Autor*innen gibt – und entsprechend weniger Standes- und Selbstbewusstsein. Zudem dürfte der Qualitätsgewinn, der darin liegen kann, dass man als Autor*in heute vermehrt über Leser*innen und Vermittlungsfragen nachdenkt, dadurch wieder wettgemacht werden, dass man weniger in der schriftlich-textlichen Auseinandersetzung mit anderen Autor*innen steht als früher.
Autor*innen mangelt es heutzutage vor allem aber auch deshalb an Selbstbewusstsein, weil mehr Menschen denn je Texte publizieren. Vor allem das Internet macht es möglich. Der Krise des Lesens korrespondiert also gewiss keine Krise des Schreibens. Dies ist eine weitere Paradoxie, die sich noch durch die Hypothese steigern lässt, dass viele auch deshalb weniger lesen, weil sie dafür mehr schreiben, dieselbe Zeit somit lieber für das Produzieren als für das Rezipieren von Texten verwenden. Autor*in zu sein, ist damit nichts Besonderes mehr, die Bezeichnung selbst vermag kaum noch motivierend zu wirken.
Diejenigen, die sich eigentlich mit mehr Berechtigung und Überzeugung als Autor*innen begreifen könnten, weil sie Bücher und nicht nur kleine Beiträge oder journalistische oder gleichsam mündliche Texte schreiben, tun sich mittlerweile sogar umso schwerer, Selbstvertrauen oder gar Stolz aus ihrer Tätigkeit zu beziehen. Denn ihnen bleibt nicht verborgen, dass selbst mittelmäßige Blogs mit hastig geschriebenen Beiträgen oft viel mehr gelesen werden als Bücher, in denen Jahre an Arbeit stecken. Online zu publizieren heißt, vernetzt zu sein und jeder Link bietet die Chance, neues und noch mehr Publikum zu bekommen, das zugleich die Möglichkeit hat, bei Bedarf schnell und unkompliziert zu reagieren – mit einem Kommentar, einem Tweet oder auch nur einem Like. Diese unmittelbare Kommunikation fördert die Vermündlichung des Schreibens, zugleich aber lässt es sich als Defizit empfinden, dass bei Büchern – und selbst bei E-Books – Austausch und Vernetzung nicht gleichermaßen stattfinden. Entsprechend wächst bei Autor*innen von Büchern nach und nach der Eindruck, ihr Geschriebenes habe den Charakter von Grabbeigaben: sei zwar sicher aufgehoben, aber auch für lange Zeit, vielleicht für immer verborgen – und damit tot. Will man Austausch und Debatte vermeiden, so lässt sich schließen, braucht man nur ein Buch zu schreiben und zugleich auf Interviews oder andere Aussagen dazu zu verzichten. Noch mehr Garantie, folgenlos zu bleiben, gibt es für Texte in gedruckten Sammelbänden, mit denen Symposien dokumentiert oder Jubiläen begangen werden. Ich kann mich nicht erinnern, hier jemals eine Reaktion bekommen zu haben.
Dagegen bin ich immer wieder überrascht, wie es sich anfühlt, wenn ein Text, der zuerst im Print erschienen ist, einige Wochen oder Monate später online publiziert wird. Es ist, als würde er an die Kreisläufe der Kommunikation angeschlossen und zum Leben erweckt. Plötzlich gibt es wirklich Rückmeldungen, manchmal entspinnt sich sogar eine Diskussion, oder man findet sich zitiert. Wer die Idee von Wissenschaft ernst nimmt, müsste somit darauf achten, dass möglichst viele eigene Texte online zur Verfügung stehen, denn so etwas wie eine „Scientific Community [Wikidata, GND]“ kann nur noch im Netz real sein. Nur was online zu finden ist, ist genügend gut verfügbar, um auch rezipiert zu werden. Nur was online steht, ist wirklich öffentlich – ist wirklich publiziert.
Das gilt wiederum nur für Texte, die nicht hinter Bezahlschranken liegen, denn auch sie stellen oft – nicht nur finanziell, sondern ebenso logistisch – ein so großes Hindernis dar, dass sie den freien Fluss weitgehend zum Stillstand bringen. Dieser Umstand erinnert aber zugleich daran, wie schwer es generell – nicht nur im Bereich der Wissenschaft – ist, im Netz mit Texten Geld zu verdienen – wie schwer es also erst recht ist, als Autor*in von Online-Publikationen leben zu können. Doch da es (wie ich ausführte) längst genauso wenig realistisch ist, mit Büchern den eigenen Lebensunterhalt zu bestreiten, sondern das eher dank der Einladungen einer vielfältigen Eventkultur gelingt, bedeutet es auch nicht unbedingt weitere Einbußen, wenn man für wenig bis kein Geld online publiziert. Aktuell hält es sich ungefähr die Waage, ob man wegen eines Online-Beitrags, der zu einer Diskussion führte, zu einem Auftritt eingeladen wird, oder ob das geschieht, weil man ein Buch geschrieben und allein damit besonderes Engagement für ein Thema an den Tag gelegt hat. Künftig könnten Bücher aber auch in dieser Hinsicht an Bedeutung verlieren, und statt einen renommierten Verlag zu haben, wird es für Autor*innen dann wichtiger sein, online gut vernetzt zu sein.
Eventuell erwächst aus der allgemeinen Vernetztheit aber auch ein neues Bedürfnis nach Exklusivität, und vorstellbar erscheint mir, dass es künftig einen Markt für Texte gibt, die nur in limitierten Editionen gedruckt werden und allein aufgrund ihrer Knappheit als wertvoll gelten und entsprechend teuer sind. Etwas lesen zu können, von dem man weiß, dass andere es nicht lesen können, dürfte eine Erfahrung sein, die sich mancher einiges kosten lassen wird. Schon jetzt gibt es vermutlich viel mehr Geschriebenes und gerade auch viel mehr Wissenschaft jenseits jeglicher Öffentlichkeit, als man zuerst vermuten würde. Man denke nur an die zahllosen Studien und Expertisen, die Unternehmen in Auftrag geben und die gar nie gedruckt oder publiziert werden. Es lässt sich hier von einer Schattenwissenschaft sprechen, die meist sogar mit Geheimhaltungspflichten einhergeht, da sich die Auftraggeber von der Exklusivität Vorteile gegenüber der Konkurrenz erhoffen. Eigentlich sollten sie allerdings eher die Sorge haben, dass man ihnen nicht unbedingt das Beste verkauft – allein weil es hier keinerlei Kontrolle durch andere Wissenschaftler*innen geben kann. Aus der Sicht eines Ideals von Wissenschaft müsste man jede derart gezielte Nicht-Publizität sogar als Rückschritt verurteilen – als Weg zurück in Eigenbrötelei und Idiosynkrasie. Nicht zuletzt drohen dort Einseitigkeit und sogar Ideologisierung, da die Interessen der Auftraggeber stärker sein können als der Wunsch nach Sachlichkeit. Andererseits sind Exklusivaufträge gut bezahlt, für Autor*innen, die mit ihrer öffentlichen Arbeit nicht genügend verdienen, daher neben den Einladungen zu Vorträgen und Events eine willkommene Einnahmequelle.
Heutzutage – so wie ich – als freier Autor zu leben, bedeutet also, nie auf einen Nenner bringen zu können, was man tut. Manchmal hat man viel Öffentlichkeit, bekommt aber kein Geld, ein anderes Mal empfindet man eine gute Bezahlung fast schon als Schweige- oder Schmerzensgeld, weil Schreiben dann gerade nicht Publizieren bedeutet, sondern zur Geheimangelegenheit wird. Manchmal hat man als Autor mehr zu reden als zu schreiben, und generell hat man es mit einem Medienwandel zu tun, der sehr vieles, was lange Zeit selbstverständlich war, infrage stellt – weit über die Rolle von Autor*innen hinaus. Eine Identifikation mit einer festen Idee von „freier Autor“ ist also gar nicht möglich. Für mich jedoch besteht der Reiz des Autor-Seins gerade darin, ein immer skeptisches, immer leicht gebrochenes Verhältnis dazu zu haben. Vielleicht bin ich sogar nur Autor geworden, weil ich generell ein Problem habe, mich mit etwas zu identifizieren. Vielleicht bin ich es also gerade nicht, weil ich so viel Vertrauen in diese Tätigkeit und ihre Zukunftstauglichkeit habe, sondern weil ich die Beweglichkeit mag, die aus Unsicherheit resultiert.
ORCID®
Wolfgang Ullrich https://orcid.org/0000-0002-8308-163X
Living Documents statt totes Holz. Alternative Publikationsformen im Kontext der Digital Literacy
Blickt man heute auf die publizistische Wertschöpfungskette [Wikidata, GND] von Kunstgeschichte, vor allem im musealen Kontext, so wird man mit einem weiten Gelände zwischen Forschung, Vermittlung und Kommunikation konfrontiert. Symbolisch dafür steht vielleicht die Restaurierung der Nachtwache im Rijksmuseum in Amsterdam, wo seit 2019 unter dem Label Operation Night Watch ein komplexes Forschungs- und Restaurierungsprojekt auf einer maximalen Publikationsstrecke entwickelt wird: „the largest research and restoration project ever for the Night Watch. This will happen live in the museum and you can be part of it”.1 Der Gesamtprozess der Restaurierung wird als Live-Event vor Ort und im Internet ausgeführt und macht die Vorgänge um Voruntersuchung, Befundaufnahme und Konservierung des Werks mit maximaler Transparenz sichtbar. Spektakulärer und öffentlicher als mit der zugehörenden Microsite,2 einer dokumentierenden Timeline, regelmäßigen Livestreams mit Experteninterviews und digitalem Schulterblick auf die Hände beziehungsweise Instrumente der Restauratoren, einem dezidierten Storytelling via Social Media (natürlich mit eigenem Hashtag #operationnightwatch) und flankierender beziehungsweise nachfolgender fachwissenschaftlicher Veröffentlichung (auch in Papierform) kann man objektbezogene Kunstgeschichte einem diversen Publikum gegenüber kaum publizieren. Gleichzeitig macht der Vorgang auch sichtbar, wie divers sich der Begriff „Publikation“ heute darstellen kann. Publikation ist eine Veröffentlichung mit verschiedenen Zielgruppen und Zielstellungen in digitalen und analogen Formaten über einen ganzen Zeitraum hinweg. Den strategischen Anlass für die maximal öffentliche Inszenierung der Restaurierung nennt der Generaldirektor Taco Dibbit in einem der ersten Videos zum Projekt: „Because the Night Watch belongs to all of us“.3
Neue Handlungsspielräume
Die Digitalisierung bringt nicht nur neue technische Alternativen für die eigentliche Drucklegung auf Papier und die Rezeption von Inhalten über abgeschlossene und statische Systeme (Aufsätze oder Bücher), sondern auch ein deutlich erweitertes Setting für die eigenen (oder institutionellen) Handlungsspielräume, die Dimensionen von Wissensvermittlung, die Dramaturgie von Informationen und die Gestaltung eines an Personen, Themen oder Institutionen gebundenen Impacts (im Sinne einer Wirksamkeit). Und schon der oben gezeigte Blick auf die Entwicklungen um die Nachtwache macht deutlich: „eine gradlinige Entwicklung (…) vom Papier zum Pixel findet nicht statt“.4 Sie war auch nicht zu erwarten, im Gegenteil: der Verlauf ist komplex.
Sichtbarkeit und Reichweite
Wirksamkeit wird in der Kommunikation gerne über die Parameter von Sichtbarkeit [Wikidata, GND] und Reichweite definiert. In diesen Parametern liegen im Idealfall die Kriterien von Qualität und Quantität immanent geborgen. Da Kunstgeschichte längst auch über Datenbanken [Wikidata, GND] entwickelt und transportiert werden kann5, wird schnell deutlich, dass „Schreibendes Lesen, lesendes Schreiben im Modus der permanenten Revision“ schon fast den „Normalfall hypertextueller Kulturtechnik“ darstellt6 und dieser sich in unterschiedlichen Auffang- und Abspielsystemen darstellen kann. Wo sich Arbeitsmethoden und Produktionsumgebungen ändern, ändert sich auch der Rollout von Informationen. Im Blick auf die besonderen Möglichkeiten und Herausforderungen der Digitalisierung lassen sich damit für Publikationen weitere Betriebsfaktoren wie Aktualität und Aktualisierbarkeit, Öffentlichkeit, Nachnutzbarkeit [Wikidata, GND] oder Flexibilität zufügen. Wir schreiben und inszenieren im Idealfall nicht nur für ein anspruchsvolles, zahlreiches und diverses Gegenüber, sondern agieren multi- und crossmedial im Kontakt oder in Konfrontation mit unterschiedlichen Zielgruppen auf einer internationalen Matrix. Wir publizieren für Menschen und für Maschinen – der interessierte Laie, der Fachkollege und der semantische Zugriff über einen Algorithmus oder die Schnittstelle [Wikidata, GND] zu einem anderen Datenbanksystem sind, je nach Intention, relevante Rezipienten. Der Vorgang der Veröffentlichung erscheint als komplexer Prozess und feingliedriger Möglichkeitsraum, der nicht nur von der ersten Idee bis zur finalisierten Schriftfassung reicht und die Inhalte transparent an die jeweilige Community [Wikidata, GND] in Wissenschaft und Öffentlichkeit vermittelt, sondern auch Perspektiven der gemeinsamen Entwicklung, Aktualisierung und Optimierung befördert. Dabei kann sich die Relevanz und die Wirksamkeit von Forschungsdaten in vielfachen und nachhaltigen Nutzungsszenarien multiplizieren. Die Sichtbarkeit von digital vorgehaltenen Informationen entscheidet sich mitunter in der Komplexität beziehungsweise Kompatibilität [Wikidata, GND] dieser Inhalte für einen diversen Anwendungskontext. Für das Design einer optimalen Veröffentlichung sind heute mitunter auch Fragestellungen zum Zeitpunkt beziehungsweise Ort der Abfrage sowie das von der Leserin oder dem Leser genutzte Setting (zum Beispiel das jeweils genutzte „Lesegerät“) maßgeblich. Um nur ein Beispiel zu nennen: gut 60 Prozent der Zugriffe auf Museumswebsites erfolgt mittlerweile von mobilen Endgeräten, das heißt auch die Lektüre komplexer Inhalte spiegelt ubiquitäre Rezeptions- und Lesegewohnheiten.
Handlungsfelder
Wenn wir heute in den Museen digitale Strategien entwerfen tun wir das im Blick auf fünf wesentliche Handlungsfelder (Abb. 1). Diese liegen in den Bereichen „Digitale Kompetenzen“ (der einzelnen Akteure), "Infrastrukturen und Ausstattung“, „Publikum im Wandel“, „Idee des erweiterten Museums (E-Culture)“ und „Digitale Transformation des Hauses“.
Im Übertrag auf die Handlungsfelder des Publizierens markiert die „digitale Kompetenz “ die Erfahrung und Fähigkeit einzelner Autor*innen, Informationen und Zusammenhänge in den digitalen Medien recherchieren beziehungsweise sie dort sinnvoll platzieren und effektiv vernetzen zu können. Die „Infrastruktur [Wikidata, GND]“ markiert die technische Arbeitsumgebung der einzelnen Wissenschaftlerin oder des Wissenschaftlers sowie die Verfügbarkeit von relevanten IT-Systemen (Hardware und Software) bei der Erstellung und Distribution der Inhalte. Der Blick auf das „Publikum im Wandel“ entwickelt die Fokussierung bestimmter Zielgruppen [Wikidata, GND] in der Ansprache und beim Rollout der Inhalte. Die E‑Culture bedeutet die Einbettung der Veröffentlichung in einen digitalen Gesamtkontext und eine übergeordnete Strategie (zum Beispiel einer Institution oder eines Urhebers). Wenn eine Autorin oder ein Autor heute einen Vortrag hält und diesen bereits während der Rede mit entsprechenden (meist vorprogrammierten) Tweets begleitet oder vertieft, im Anschluss das Redemanuskript auf seinem Blog publiziert und schließlich im Nachgang für die Veröffentlichung einer vertiefenden Schriftfassung sorgt, so hat diese Autorin oder dieser Autor, nach meiner Auffassung, eine digitale Strategie und versucht den eigenen Wirkungsraum und -grad aktiv zu gestalten.
Der Impact
Im 21. Jahrhundert gestalten auch Kunstwissenschaftler*innen einen digitalen Impact, der fachliche, ökonomische, operative und soziale Einflussfaktoren oder Wirkungsmechanismen transportiert. Der Impact ist dabei nicht als quantitative Bewertungsgröße oder Qualitätszahl zu verstehen, sondern als Faktor der strategischen Inwertstellung von Wissen.
In den Museen nutzen wir als Planungsinstrument für diese Inwertstellung zum Beispiel die sogenannte Visitor Journey 7, bei der wir den Museumsbesuch und die möglichen digitalen Kontaktpunkte mit den Besucher*innen beziehungsweise Nutzer*innen in einer chronologischen Abfolge analysieren. Dabei ergibt sich oftmals ein klarer Blick auf die unterschiedlichen Bedarfe der diversen Besucher*innen in differenzierten Situationen. So unterscheiden wir zum Beispiel die Vor- beziehungsweise Nachbereitung des Museumsbesuchs, den Weg durch das Haus, den Aufenthalt in der Schausammlung und die Begegnung mit den Objekten oder die rein virtuelle Begegnung in kompletter Unabhängigkeit von der physischen Präsenz vor Ort (Abb. 2). Für jeden dieser aktiven und passiven Kontaktpunkte gibt es ein spezifisches Setting, das im Blick auf die unterschiedlichen Zielgruppen die jeweiligen Bedarfe und den Impact des Museums fokussiert.
Als Strategie gedacht scheint mir dieser Ansatz durchaus auf die Wertschöpfungskette der Wissenschaft, die Phasen von Forschung, Wissenschaftskommunikation [Wikidata, GND] und Publikation, übertragbar: Es geht um den eigentlichen Prozess der Forschung bis zur Vorbereitung einer Veröffentlichung, die Dimensionierung der eigentlichen Publikation im Blick auf den gewünschten Wirkungsgrad [Wikidata, GND] und die Perspektive der Weiterentwicklung oder Nachnutzbarkeit der Inhalte in der Dimension des Impacts. Zur Ausgestaltung dieser Journey sind heute eine Vielzahl publizistischer Formate in unterschiedlichen Strukturen nutzbar. Der Blick geht auf die zahlreichen Micro- und Zwischenformate, die nicht nur fertig Durchdachtes, sondern auch im Denken Begriffenes, Entstehendes, zur Lektüre, zur Diskussion, zur Vernetzung oder zur kollaborativen Entwicklung freigeben. Richtig angewendet und strukturiert tragen solche Prozesse dazu bei, der Partikularisierung und Unübersichtlichkeit von wissenschaftlicher Kommunikation und Publizistik wieder Struktur zu verschaffen. Selbst Microbloggingplattformen wie Twitter [Wikidata, GND] können hochfrequente Denk-, Inspirations- und Dialogräume für unterschiedlichste Fachcommunities öffnen. In der internationalen Echokammer dieser Bühne schafft die Plattform als komprimierende Meta-Ebene eine Vernetzungsmatrix, die konkurrenzlos bleibt.
Auch das klassische kunstwissenschaftliche Blog [Wikidata, GND]8 bleibt als Instrument des vorbereitenden oder begleitenden Publizierens hartnäckig am Markt. Fast schon seit Jahrzehnten erscheint das Instrument des privaten „Logbuchs“ im Eigenbetrieb oder im Schulterschluss auf Gemeinschaftsplattformen wie hypotheses.org nach wie vor attraktiv. Eine Umfrage auf der geisteswissenschaftlichen Blogplattform hypotheses.org brachte kürzlich das Ergebnis, dass „Wissenschaftsbloggen nach wie vor äußerst vielfältige Praktiken unterschiedlicher Ausprägung umfasst. Als Trend lässt sich ein professioneller und strategisch bewusster Einsatz von Blogs ausmachen, die auch bei technisch wenig affinen Forschenden ihren Platz als zusätzliches Kommunikationsmittel gefunden haben. [...] Die Umfrageergebnisse widerlegten das gängige Vorurteil, wonach Wissenschaftsblogs als niedrigschwelliges Medium gern genutzte Publikationsorte sind, in dem [sic] jeder und jede ohne Qualitätskontrolle über alles schreibt“.9 72 Prozent der Bloggenden, so schreibt Mareike König in Ihrem Beitrag, hatten sehr genaue Vorstellungen von den kommunizierten Inhalten. Und Kommunikation wurde von der Gruppe der befragten Geisteswissenschaftler*innen als oberstes Ziel genannt, die überwiegend ein akademisches Publikum anvisieren (52 Prozent). Im Blick auf den Erfolg der Wissenschaftsblogs bekannte sich rund die Hälfte der Befragten zur Auffassung, dass Bloggen dabei hilft 1) ein Thema zu besetzen, 2) Gedanken zu ordnen und auszuprobieren sowie 3) die eigene Forschungstätigkeit zu dokumentieren.
Von Digital Literacy und Online Reputation Management
Als Handlungsgrundlage für das strategische Setting der eigenen publizistischen Tätigkeit wird eine individuelle (auch institutionelle) Digital Literacy immer wichtiger. Dabei geht es um die eigene Medienkompetenz [Wikidata, GND] innerhalb der Digital Humanities [Wikidata, GND] und der hochdynamischen Spielräume der Digitalisierung, um die Fähigkeit, über digitale Medien dargestellte Informationen unterschiedlicher Formate zu verstehen und selbstbestimmt, souverän, verantwortlich und zielgerichtet anwenden zu können. Zielrichtung und Anwendung bedeuten dann auch ein methodisches und ein publizistisches Setting, inkludieren aber eben auch Erfahrungen in der Gestaltung crossmedialer Handlungsräume mit reflektierter Steuerung der gewünschten Sichtbarkeit der eigenen Beiträge: Wie am Museum vor dem Hintergrund der digitalen Transformation die Handlungsräume Dokumentation, Vermittlung und Kommunikation verschwimmen, diffundieren hier Online Reputation Management, Wissenschaftskommunikation und Publizistik. Digital Literacy bedeutet dann auch eine Entscheidungskompetenz, die den Einzelnen befähigt, innerhalb dieses Settings Entscheidungen zu treffen oder den eigenen Impact zu organisieren.
Wie deutlich solche Entwicklungen schon seit einiger Zeit Berufsbilder verändern, sehen wir zum Beispiel im Blick auf eine Studie des Art-Fund in England, der 2017 das Berufsbild des Kurators [Wikidata, GND] im 21. Jahrhundert hinterfragte.10 Im Ergebnis skizziert die Studie des Art Fund ein Aufgabenspektrum, das auch deutliche Positionen in der Digital Literacy besetzt: „The 21st-century curator wants to engage with digital technology and new communication platforms, and herness them in sharing collections and knowledge“ und „digital technology has transformed relationships: Curators can now share knowledge more easily and quickly, both with the public and between colleagues and institutions“.11
Ein Projekt im Kontext der Digital Literacy der Landesstelle für die nichtstaatlichen Museen in Bayern
Vor dem oben skizzierten Hintergrund hat auch die Landesstelle für die nichtstaatlichen Museen in Bayern an der eigenen Digital Literacy gearbeitet und einen frischen Blick auf klassische Publikationsformate gewagt: Mit der Publikationsreihe MuseumsBausteineunterstützt und fundiert die Landesstelle seit Jahrzehnten die Aufgaben der klassischen Museumsarbeit und bietet ihren Kunden konkrete Hilfestellung für museale Fragen bei den wichtigsten Themen. In den vergangenen Jahrzehnten sind dazu eine ganze Reihe klassischer Veröffentlichungen entstanden. Auf Papier wurden zunächst bei Schnell & Steiner, dann im Weltkunst-Verlag und ab Band 6 im Deutschen Kunstverlag Veröffentlichungen über Themen wie Inventarisation, Sammlungsdokumentation, Temperierung, Museumspädagogik oder Provenienzforschung herausgegeben. Mit Band 19 (Abb. 3) setzt die Landesstelle einen neuen Fokus und macht darauf aufmerksam, dass wesentliche Bereiche der Museumsarbeit heute auch in digitalen Aufgabenstellungen beheimatet sind.
Der Band trägt den Titel: Das erweiterte Museum. Medien, Technologien und Internet. Er dokumentiert aktuelle Technologien, beleuchtet wichtige Instrumente wie Websites, Online-Sammlungen, Social Media, Medienstationen, Multimediaguides und wesentliche Themen wie E-Learning, E-Publishing oder digitale Strategien. Dazu geben Expert*innen aus der Landesstelle, aber auch externe Autor*innen konkrete Tipps und Handlungsempfehlungen zu Konzeption, Produktion und Betrieb von Medien im Museum.
Die Publikation [Wikidata, GND] wurde nicht nur als klassische Printpublikation [Wikidata, GND], sondern auch als E-Book [Wikidata, GND] und mit einer digitalen Erweiterung mit einem DOI (Digital Object Identifier) [Wikidata, GND] herausgegeben. Die Veröffentlichung erscheint, wenn man so möchte, in drei verschiedenen Formaten: auf Papier, in einem Container-Format als EPUB [Wikidata, GND], und als browserbasiertes Online-Angebot. Die einzelnen Formate beziehungsweise Inhalte sind über QR-Codes [Wikidata, GND] miteinander verbunden und führen als Sprungmarken aus der Printpublikation auf die zugehörenden Medieninhalte in der digitalen Erweiterung. Damit möchte die Publikation nicht nur auf unterschiedliche Lesegewohnheiten des Publikums reagieren, sondern auch der besonderen Dynamik des Themas gerecht werden. Zugleich soll der technische Split Berührungsängste lindern, die Wahrnehmung für das Thema schärfen und die gesamten Inhalte einer Nachnutzbarkeit zuführen.
Das „Online-Angebot“ ist als digitale Erweiterung konzipiert und liefert vertiefende Links, Literaturhinweise, und direkt eingebettete vorbildliche Umsetzungen (die über persistente Adressen in den Archivierungsarchitekturen der Bayerischen Staatsbibliothek beheimatet sind). Technisch ist die Erweiterung in eine neu entwickelte Software [Wikidata, GND] eingebettet, die sich quasi selbst ausführen kann. Einmal aufgerufen, kann es auch offline betrachtet werden und bleibt im Browser aktiv.
Dieses publizistische Vorgehen bietet sich besonders für Themenstellungen an, die animierte, interaktive oder multimediale Inhalte transportieren. Diese können im Printbuch nicht platziert werden, sollten aber trotzdem dauerhaft zitierfähig und valide erhalten bleiben. Zudem sind gerade browserbasierte Online-Angebote für Inhalte prädestiniert, die in kleineren Einheiten rezipiert werden und einen hohen Aktualitätsgrad erfordern. In unserem Kontext hat der Leser das klassische Buch oder EPUB auf dem Tisch und nutzt das Smartphone oder den Desktop zur Vertiefung in der digitalen Erweiterung. Jedes der drei Publikationsformate ist aber auch für sich sinnvoll alleine zu nutzen und konsistent.
Eine besondere Herausforderung des Projekts war es, für jede Art von Inhalt das adäquate Transportmittel zu finden, wobei letztendlich lediglich jene Inhalte im ersten Segment der Container-Formate noch eine entfernte Ähnlichkeit mit dem haben, was die UNESCO heute unter einem Buch versteht, also „ein nicht periodisch erscheinendes, der Öffentlichkeit zugänglich gemachtes Druckerzeugnis von mindestens 49 Seiten.“12
Während Buch und E-Book im Wesentlichen dieselben Inhalte nur auf unterschiedlichen Medien transportieren (im E-Book wurden weitere multimediale Anreicherungen, wie zum Beispiel Videos, publiziert), versteht sich die digitale Erweiterung als Living Document. Das macht hier auch besonders Sinn, weil sie weniger eine wissenschaftliche Diskussion abbildet (was aber technisch auch möglich wäre), als auf das schnelle Verfallsdatum der Inhalte reagiert: oftmals sind Informationen oder webbasierte Quellen im Themenbereich der Digitalisierung schon zu dem Zeitpunkt überholt, wenn die Publikation gerade erscheint. Deshalb war es für uns schon zu einem frühen Zeitpunkt klar, dass wir bestimmte Informationen, in unserem Fall, die Adressierung von Quellenverweisen oder die Zitation von Best-Practice-Beispielen, aus dem statischen Buch in eine dynamische und redaktionell betreute Quelle verlagern müssen. Für die Umsetzung der Anwendung haben wir einen digitalen Partner gesucht und diesen im Zentrum für Elektronisches Publizieren der Bayerischen Staatsbibliothek (BSB) gefunden. Dabei war es dann auch besonders vorteilhaft, dass die Server der BSB auch Verfahren für eine dauerhafte Archivierung von Anwendungen kennen. Wir können also in unserer Publikation auch Zustände von Webseiten dokumentieren, die online irgendwann nicht mehr greifbar sind. Eine Publikation mit angegliedertem Web-Archiv.
- Die Inhalte verstehen sich im Wesentlichen als eine Kollektion von Anwendungsbeispielen und Quellen. Der Text bietet eine optionale „Führung“ durch diese Kollektion.
- Bei der Benutzung sind wir nicht auf ein lineares Lesen fixiert. Unsere Leser können über Text oder Anwendungs-Beispiele einsteigen, Inhaltliche Zusammenhänge sind uns wichtiger als eine Textlinearität.
- Wir verstehen Absätze und sonstige Bestandteile als „Objekte“. Diese sind durchgängig persistent zitierbar.
Selbstverständlich sind das Buch sowie die Inhalte des Portals via Open Access [Wikidata, GND] verfügbar. Alle Texte stehen unter der Creative-Commons-Lizenz CC BY 4.0 International (Namensnennung) und können entsprechend weitergenutzt werden. Der Wert der Publikation für die Leserin oder den Leser resultiert also auch in einem konkreten Nutzwert, der sich neben dem reinen Inhalt auch aus den eingeräumten Rechten sowie dem konkreten Funktionsumfang der jeweiligen Softwareumgebung bemisst.
ORCID®
Christian Gries https://orcid.org/0000-0003-4186-3614
Kathedrale oder Basar? Überlegungen zu einer neuen IT-Infrastruktur (nicht nur) für die Digitale Kunstwissenschaft
Einleitung
Der Titel dieses Essays bezieht sich auf den inzwischen klassischen Text Eric S. Raymonds [Wikidata, GND] über die unterschiedlichen Entwicklungsmodelle für Closed und Open Source beziehungsweise Free Software, der 1997 erstmals in Würzburg auf dem 4. Internationalen Linux-Kongress vorgetragen wurde und später beim (kommerziellen) Verlag O’Reilly als frei verfügbares Buch im Open Access erschien.1 Darin bezieht Raymond sehr deutlich Stellung für das im Bereich Open Source / Free Software etablierte Modell , das er mit einem Basar vergleicht: Viele Mitwirkende veröffentlichen ihre Beiträge so schnell und so oft wie möglich und natürlich in einer Form, in der sie für andere sofort nachnutz- und erweiterbar sind. Inwiefern dieses Modell wirklich mit dem metaphorischen Basar in Übereinstimmung zu bringen ist, bleibe einmal dahingestellt. Demgegenüber wird der Bau einer Kathedrale von Raymond [Wikidata, GND] als zentralistisches Entwicklungsmodell präsentiert, bei dem ein maßgeblicher Architekt und dessen engste Mitarbeiter nach einem fertigen, wohl sogar als nicht öffentlich einsehbar gedachten Plan an einem Großprojekt arbeiten, das sehr lange zu seiner Fertigstellung benötigt und anschließend nicht mehr oder kaum noch verändert oder erweitert werden kann. Auch hier könnte man – nicht nur als Architekturhistoriker – Zweifel anmelden, ob dieses Modell als Metapher für Großprojekte in der Entwicklung von Closed-Source-Software wirklich passend ist und mit der architekturhistorischen Realität übereinstimmt. Aufgrund von Raymonds [Wikidata, GND] Gegenüberstellung beider Modelle als sich weitgehend ausschließende Alternativen müsste der Titel aber eigentlich ein „or“ enthalten, nicht ein „and“ – und es sollte deutlich(er) werden, für welche Alternative der Autor plädiert. Da er dies unterlassen hat und ich seinen Titel nicht plagiieren kann und will, bleibt kaum etwas anderes übrig, als hier also das „oder“ anstelle des „und“ zu verwenden. Dass dies sogar sinnvoll ist – insbesondere, wenn man die Alternative als Frage formuliert –, gerade weil ich beide Modelle für gerechtfertigt und beide zur Lösung des unten kurz skizzierten Problems für unverzichtbar halte, soll im Folgenden dargelegt werden. Ebenso möchte ich skizzieren, warum ich als Lösung des anderweitig bereits umfangreicher erläuterten Problems der meines Erachtens bisher nicht gegebenen, langfristigen Verfügbarkeit unserer digitalen Forschungsdaten, -ergebnisse und -software (im weitesten Sinne) eher das Modell des Kathedralbaus bevorzuge, welches aber unbedingt durch die Offenheit des metaphorischen Basars zu ergänzen wäre.2
Warum überhaupt eine neue IT-Infrastruktur?
„We are nonchalantly throwing all of our data into what could become an information black hole without realising it. We digitise things because we think we will preserve them, but what we don’t understand is that unless we take other steps, those digital versions may not be any better, and may even be worse, than the artefacts we digitised. If there are photos you really care about, print them out.“3 Mit diesen Worten charakterisiert Vinton „Vint“ Cerf, der gemeinsam mit Robert E. Kahn [Wikidata, GND] Anfang der 1970er Jahre das TCP/IP4 entwickelte – die Gruppe von Protokollen für den Datentransfer, auf denen das Internet heute noch beruht –, die Situation unserer digitalen Daten: Sowohl die Datenformate [Wikidata, GND], in denen sie gespeichert werden (Text-, Tabellen- und andere Dokumente, Fotografien und Bilder allgemein, Grafiken, 3D-Modelle, Animationen usw.), wie auch die Software [Wikidata, GND], die zu ihrer Speicherung, Benutzung, gegebenenfalls Veränderung, Darstellung oder Konvertierung notwendig ist, haben - ebenso wie die Software, die das Funktionieren dieser Programme überhaupt erst ermöglicht Programmiersprachen und deren Compiler, also die sogenannte Middleware [Wikidata, GND], vor allem aber Betriebssysteme [Wikidata, GND]) und die Hardware [Wikidata, GND], auf der all das läuft und in Zukunft auch weiterhin laufen soll - aus dem Blickwinkel (nicht nur kunst-)historischer Zeiträume eine geradezu lächerliche Lebensdauer: Wie schnell sich Datenträger und Computer sowie deren Peripherie – Stichwort: Bildschirme – in den letzten 50 Jahren gewandelt haben und offenbar immer schneller wandeln, kann man fast täglich selbst beobachten. Für die Software gilt Ähnliches, auch wenn auf einigen museumsreifen Bankencomputern angeblich noch in den Programmiersprachen Cobol oder Pascal geschriebene Software aus den 1970er Jahren laufen soll, weil sich niemand traut, sie zu modernisieren – nach dem Motto: „Never change a running system!“5
Der Regelfall aber heute, den Cerf adressiert, dürfte – bezogen auf die Verwendung von Hard- und Software in Projekten der digitalen Kunstgeschichte – eher so aussehen: Die Hardware ist vermutlich fast so vielfältig, wie es der Markt hergibt, wobei meiner Erfahrung nach selbst teuerste Lösungen (HP Unix oder IBM-Mainframes mit Oracle-Datenbanken) in großen Institutionen angeschafft und betrieben, aber selten ausgelastet werden. Die meisten Institutionen werden jedoch aus Sparsamkeit PCs und Server „von der Stange“ betreiben, deren hardwareseitige Lebensdauer bei fünf bis maximal zehn Jahren liegen dürfte. Sollte es sich dabei nicht um bereits länger in Gebrauch befindliche Windows-Server [Wikidata, GND] handeln, wird darauf heute wohl eher eine der vielen gängigen Linux-Distributionen [Wikidata, GND] laufen, manche davon mit professionellem Support (zum Beispiel von Red Had, SUSE oder einem kleineren Support-Drittanbieter), andere vielleicht eher nach dem Geschmack des jeweils zuständigen Admininstrators ausgesucht. Wer die Flame Wars zum Thema „Welche ist die beste Linux-Distribution?“ kennt, wird davon ausgehen dürfen, dass verschiedene Administratoren – gar über Generationengrenzen hinweg – eher nicht dieselbe Distribution bevorzugen: Hier sind also schon Umzugsprobleme in Form von Inkompatibilitäten vorprogrammiert, wie sie aber natürlich auch beim Upgrade von einer Windows-Version auf die nächste oder schon bei Updates innerhalb derselben Version gern auftreten. Damit einher geht aber auch bei diesen wie allen anderen Betriebssystemen und -generationen ein Austausch der Middleware [Wikidata, GND], also zum Beispiel unterschiedlichste Versionen der mitgelieferten oder installierbaren Programmiersprachen [Wikidata, GND], Gerätetreiber [Wikidata, GND] für die interne Hardware und die Peripherie, Office-Pakete [Wikidata, GND] oder Datenbank-Management-Systeme und so weiter und so fort. Bei aktuellen webbasierten Forschungsdatenbanken kommt dann gern noch die Abhängigkeit vom jeweils gerade aktuellen Browserstandard hinzu, die zu beachten wäre.
Wer sich einmal die Mühe machte, eine gängige datenbankgestützte, in der Regel ein freies CMS [Wikidata, GND] verwendende Lösung in einem typischen Projekt der Digital Humanities daraufhin zu untersuchen, von welchen Hard- sowie Software-Komponenten diese insgesamt überhaupt abhängig ist, wird schnell auf mehrere Hundert (Kernel-)Module, Dutzende Treiber, mehrere Skriptsprachen samt deren jeweiligen Parsern, die wiederum in verschiedenen Hochsprachen geschrieben sind, sowie häufig auch noch eine beliebige Zahl im Projekt selbst geschriebener Anpassungen in Form von Skripten kommen, die alle fortlaufend gepflegt, von in jedem Fall irgendwann zu entdeckenden Fehlern bereinigt und bei Inkompatibilitäten angepasst werden müssten: Das in den letzten Jahren erfolgte, sehr gut zu beobachtende „Einschläfern“ von 32-Bit- zugunsten von 64-Bit-Hard- und Software kann als gutes Beispiel dafür dienen, was in Zukunft immer wieder und vermutlich immer häufiger und auch immer schneller auf die Betreiber eines Projekts zukommt: Denn es ist ja nicht so, dass 32-Bit-Software auf 64-Bit-Hardware laufen würde, weil 32 doch irgendwie so etwas wie eine Untermenge von 64 ist!
Solange ein Projekt noch gefördert wird oder eine gewisse Anschlussfinanzierung gesichert ist, mag das noch – bis auf einigen personellen Aufwand – gut gehen. Aber kann jemand ernsthaft glauben, dass dies auch noch in 50 oder gar 100 Jahren für ein heute gestartetes und in absehbarer Zeit – meist nach drei bis zehn Jahren – beendetes Projekt funktioniert? Oder sind die von uns gesammelten Daten und daraus gewonnenen Erkenntnisse es vielleicht gar nicht wert, so lange aufgehoben zu werden? Zumindest diesen Eindruck könnte man angesichts der von Cerf kritisierten Unbekümmertheit im Umgang mit solchen Problemen bekommen. Dabei findet nicht einmal ein Umgang damit statt, sondern man schließt eigentlich eher ganz fest die Augen und hofft, dass alles schon irgendwie laufen wird. Deshalb empfinde ich es als Kunst- und Musikhistoriker geradezu beschämend, dass ausgerechnet beziehungsweise nicht einmal in den historischen Fächern an diese Fragen überhaupt nennenswerte Gedanken verschwendet zu werden scheinen.
Kurzum: In jedem Projekt haben wir es mit jeweils sehr idiosynkratischen Lösungen zu tun, die zudem oft genug nicht von hochqualifizierten Spezialisten geschrieben wurden und somit nicht gewissen Standards entsprechende Codequalität haben, weil solche Spezialisten im starren Tarifsystem öffentlicher Einrichtungen viel zu teuer wären. Stattdessen dürfte man zumeist einen regelrechten Zoo oder gar Dschungel vorfinden, für welchen die Möglichkeit der langfristigen, dauerhaften Pflege – von Weiterentwicklung gar nicht zu reden – mit an Sicherheit grenzender Wahrscheinlichkeit ausgeschlossen werden kann.
Zwar gibt es Bemühungen, die Daten möglichst unabhängig – abstrahiert – von der spezifischen Hard- und Software zu speichern, sodass sie theoretisch problemlos beispielsweise als XML- oder JSON-Datei nach zuvor (!) genau zu definierenden Schemata zwischen verschiedenen Systemen ausgetauscht werden können – wenn diese sich an den gemeinsamen Standard halten. Aber meines Wissens gibt es bisher etwa noch keine zwei Implementierungen des CIDOC-CRM,6 zwischen denen ein Datenaustausch erfolgreich versucht worden wäre. Auf jeden Fall benötigt man dafür in der Regel Parser, also eine weitere Komplexitätsschicht aus verschiedenen Skripten in einer (weiteren) Programmiersprache, die erst programmiert und dann gepflegt werden müsste.
Aber alle diese Probleme werden ja nun seit circa 2015 – und also mit „nur“ ungefähr 25-jähriger Verspätung7 – endlich angegangen, indem Vorschläge für eine (oder mehrere?) Nationale8 Forschungsdateninfrastruktur(en) von Gremien entworfen, entwickelt und gesammelt werden. Und irgendwann sollen dann sicher auch die Gewinnerprojekte dieses Arbeits- und Lebenszeit sowie jede Menge Gehirnschmalz verzehrenden Wettbewerbs finanziert und umgesetzt werden. Nach meinem Kenntnisstand dürfte es im Ergebnis des Prozesses eine oder mehrere landes- oder regionenweit verteilte Cluster-Systeme geben, auf denen Projekte dann ihre Daten und – das wäre zumindest zu verlangen – auch die zu deren Nutzung und Interpretation notwendige Software hinterlegen können. Vermutlich wird es sich dabei um eine Art verteilte virtuelle Maschine handeln, in deren Containern dann quasi die gesamten Projekte – also Daten inklusive projektspezifischer Software – gespeichert werden. Interessant wird sein, ob und wie diese Daten nicht nur abrufbar, also „unverändert“ nutzbar sein werden, sondern zugleich auch gegen direkte Veränderung geschützt sein sollen und trotzdem zukünftig ergänzt und erweitert werden können. Im Prinzip müsste man für solche Ergänzungen – zum Beispiel wenn zu einem Projekt über barocke Deckenmalerei nach dessen Abschluss neue Quellen oder gar vielleicht durch Restaurierungen neu zutage getretene, bisher unbekannte Gemälde entdeckt werden – dann jeweils einen Klon der Originaldaten erstellen und zugleich garantieren können, dass alte und neue Daten jederzeit voneinander unterscheidbar sind und dabei auch synchron gehalten werden. Das scheint mir zumindest nicht trivial zu sein, wenn man voraussetzt, dass nicht alle Projekte hinsichtlich der Nutzungs- und Bedienungs- sowie Sicherheitskonzepte identisch sein dürften. Im Ergebnis erhielten wir dann in – optimistisch geschätzt – zehn bis 15 Jahren eine Gruppe von hoffentlich zueinander kompatiblen Lösungen – nennen wir sie einmal provisorisch „Digitale Archive“ –, in welchen eine Vielzahl von Projekten mit Daten und Software auf unterschiedlichen Host-Systemen gespeichert werden. Dann wäre sicherzustellen, dass nicht nur diese Host-Systeme – in sich vermutlich schon hochkomplex –, sondern auch die aufgenommenen Daten und ihre projektspezifische Software ständig gepflegt, gegebenenfalls – anhand guter Dokumentation – regelmäßig an Neuentwicklungen angepasst und auf neue Hard- und Software migriert werden können. Allein eine solche Migration kann dabei aber erfahrungsgemäß bereits für einzelne Projektdatenbanken sehr anspruchsvoll sein und mehrere Jahre dauern. Das heißt, eine große, generalstabsmäßig organisierte Gruppe von Informatikern und Fachwissenschaftlern, die verstehen, was in welchen Projekten warum und wie gesammelt wurde, würde „bis in alle Ewigkeit“ damit beschäftigt sein, diese ständige Migration vieler Tausend, wenn nicht sogar Millionen Elemente in Hunderten von abgeschlossenen Projekten anhand der notwendigen – heute meist jedoch gar nicht in ausreichender Qualität vorhandenen Dokumentation – zu bewältigen. Sollten diese Host- und die darin eingebetteten Projekt-Systeme der Digitalen Archive – wie zu fordern wäre – aus Open Source oder besser Freier Software bestehen, könnte man immerhin hoffen, dass nach Raymonds [Wikidata, GND] Basar-Modell eine Vielzahl beispielsweise durch die ehemaligen Projekt-Institutionen bezahlter oder zumindest unterstützter Freiwilliger diese ständigen Anpassungen und Fortentwicklungen in vielen kleinen Schritten vornehmen wird. Dies würde aber wiederum auch von einem sozialen Faktor, einer sozialen Struktur, abhängen, wie es Cerfs Kollege Robert E. Kahn 2016 beschrieb:9 Die heute üblichen Institutionen sind auch bei einer Existenz von einigen Jahrzehnten meines Erachtens viel zu kurzlebig, um die fortlaufende Bewahrung wichtiger digitaler Forschungsdaten und -ergebnisse in solchen skizzierten Host-Systemen langfristig sicherstellen zu können. Aber eigentlich kann ich mir aufgrund nun fast 35-jähriger Erfahrungen im Umgang mit Software leider nicht vorstellen, dass dieses Modell überhaupt wirklich dauerhaft funktionieren kann.
Dabei sind in diesem Szenario Probleme noch gar nicht berücksichtigt, die sich beispielsweise aus dem Ablauf von Lizenzen und Zertifikaten und gegebenenfalls deren notwendiger Ersetzung ergeben werden. Dieses letztere Problem wird meines Wissens auch in Vint Cerfs Vorschlag eines Digital Vellum genannten Systems noch gar nicht adressiert, obwohl er es in seinen Vorträgen gelegentlich erwähnt.10 Das seit mehreren Jahren geplante und in Entwicklung befindliche, aber noch nicht fertige Digital Vellum entspricht einem solchen Host-System, das nicht nur sämtliche Daten und Software in sich aufnehmen, sondern auch die gegebenenfalls spezifische Hardware zu deren Betrieb simulieren können soll.
Und obwohl (nicht nur) in den Digital Humanities schon seit fast 20 Jahren beispielsweise die Forderung nach Offenheit im Allgemeinen – vorläufig vor allem in Form des Open Access und der Open Data – vertreten wird und sich (viel zu) langsam durchzusetzen scheint, werden beispielsweise Texte wie dieser üblicherweise immer noch mit einem bekannten kommerziellen Closed-Source-Programm erstellt – beziehungsweise deren Erstellung mit diesem Programm verlangt –, für welches man nicht erst für die ferne Zukunft in 50 Jahren mit Sicherheit ausschließen kann, dass diese erstellten Texte dann noch im selben Layout oder überhaupt lesbar sein werden. Man sollte jedenfalls, so meine ich, lieber nicht davon ausgehen, dass eine einfache Übertragung des zugrunde liegenden XML-Textes in ein anderes Textverarbeitungssystem einfach so möglich wäre und der dabei zweifellos zu erwartende Verlust an Formatierungsvorgaben und -eigenheiten bedenkenlos und ohne Inhalts- beziehungsweise Bedeutungsverlust hingenommen werden kann. Und die Verwendung der Nachfolgeversion dieser Software wird man auch nicht einfach so umgehen können, wenn diese beim Neustart beispielsweise nach Übertragung auf eine neue Betriebssystemversion in 20 Jahren zuerst einmal verlangt, mit dem Server der Herstellerfirma verbunden zu werden, um die Gültigkeit des Installationsschlüssels prüfen zu können. Man sollte sich vielleicht auch besser nicht darauf verlassen, dass der Hersteller dann und in alle Ewigkeit bereit sein wird – so er noch existieren sollte –, für alte Softwareversionen einen Authentifizierungsserver samt (Gratis-) Lizenzschlüsseln zur Verfügung zu stellen. Schließlich will ein kommerzieller Software-Anbieter seine Nutzer dazu bewegen, immer wieder neu Geld für die aktuellste Variante seines Produkts zu zahlen.
Ein weiteres Problem dürfte im zu erwartenden Modell der Forschungsdateninfrastruktur in der Vernetzung der Daten bestehen. Es ist zwar noch nicht weit verbreitet, aber im System HTTP/WWW von Anfang an vorgesehen, dass alle Daten nicht immer wieder überall repliziert werden müssen, sondern verlinkt werden können. So können beispielsweise extern irgendwo im Web vorhandene Bilder jederzeit in eine Webseitendarstellung, etwa eines Datenbankinhalts ad hoc eingebunden und bei Aufruf der eigenen Seite aus dem Netz hinzugeladen werden. Das betrifft selbst schon Bilder, die im Rahmen eines Projekts auf einem eigenen, separaten Server gespeichert und von anderen aus via URL oder IP-Adresse abgerufen werden. Aber im Zuge einer – vielleicht bereits wieder abklingenden? – Bewegung weg von der eigenen Instituts- oder Projektwebseite hin zur aktiveren beziehungsweise schneller Aktivität vermittelnden Facebook-Präsenz darf man schon fragen, welcher zu speichernden (Gruppe von) Datei(en) denn beispielsweise eine Facebook-Timeline entspräche, die ad hoc und fortlaufend aus unterschiedlichsten Datenquellen zusammengesetzt und aktualisiert wird. Und diese Quellen selbst können wiederum durchaus auf weltweit verteilten Servern liegen. Ohne die Möglichkeit, die Facebook zugrunde liegende Software unabhängig nach- und unter fortlaufender Anpassung weiterzunutzen, wird man die dort abgelegten Daten schon mittelfristig als verloren ansehen müssen. Dies gilt aber nicht nur für die Facebook-Präsenz eines Projekts oder einer Institution, sondern eben grundsätzlich für jede Webseite, in die externe Inhalte eingebunden werden. Das Problem der „toten Links“ ist ja kein neues …
Alan Kay [Wikidata, GND], einer der Väter der objektorientierten Programmierung sowie der graphischen Benutzeroberflächen und mit der technischen Entwicklung der letzten 50 Jahre mindestens so vertraut wie Cerf, hat gemeinsam mit Long Tien Nguyen einen Vorschlag11 für die dauerhafte Speicherung von Daten und Software in einer Art eingefrorenem Zustand unterbreitet – also ohne die Möglichkeit direkter nachträglicher Veränderung: Seine Digital Cuneiform Tablets genannten Speichermedien – aktuell in der Form von CDs beziehungsweise DVDs ähnelnden Datenträgern gedacht – sollen über eine auf der Oberfläche lesbare Selbstbeschreibung verfügen, die es jedem interessierten Archäologen sogar der fernsten Zukunft noch erlauben soll, das zum Zugriff auf die Daten notwendige Hardware-System in kürzester Zeit zu rekonstruieren. Auch hier muss man voraussetzen, dass die so zu sichernden Projektdaten unverändert erhalten bleiben sollen und also – ohne Duplizierung auf einem neuen System und damit gegebenenfalls nötige Anpassungen – nicht veränderbar sein werden. Man mag einwenden, dass dies für unsere wichtigsten Quellen – Kunstwerke und andere Artefakte ebenso wie Primär- und Sekundärliteratur – ebenfalls gilt und wir damit bisher gut umgehen konnten: Aber wenn wir auf diesem Stand verharren würden, gäben wir meines Erachtens schon einen wesentlichen Vorteil computerbasierter Forschung überhaupt auf. Der andere wäre die Verarbeitung sehr großer Datenmengen; aber hier ließen sich natürlich auch wie bisher Daten und Ergebnisse zusammengefasst auf Papier „speichern“. Damit wären die Digital Humanities jedoch nur noch in dem Sinne digital, dass sie den Computer als bessere Schreibmaschine und für Berechnungszwischenschritte verwendeten – was vielleicht gegenüber Dritten keine guten Argumente für die kostenintensive Finanzierung ihrer IT-Entwicklungen wären.
Ein Lösungsvorschlag
Aus meiner Sicht müsste daher die Lösung der aufgezeigten Probleme einige grundsätzliche Änderungen im bisher üblichen und absehbaren Vorgehen beinhalten: Meiner Meinung nach ist angesichts des erwähnten „Wildwuchses“ im Bereich der Hard- und Software nichts weniger als ein grundlegender Neustart notwendig.
Wir befinden uns vermutlich in einer Situation, die der explosionsartigen Entwicklung des Buchdrucks in der ersten Hälfte des 19. Jahrhunderts vergleichbar ist: Sie machte es schlicht unmöglich, dass eine von einem Kleinstaat-Fürsten, einem Kloster, einer Stadt oder einer Privatperson betriebene Bibliothek [Wikidata, GND] alle halbwegs relevanten Neuerscheinungen gezielt sammeln konnte. Deshalb entstanden Staats- oder Nationalbibliotheken, deren Hauptzweck es war, alle in der Landessprache oder im jeweiligen Staat erscheinenden Drucke zu sammeln und zu erschließen. Hierzu wurden diese Bibliotheken – ähnlich wie Archive und später auch Museen – mit einer Art „Ewigkeitsgarantie“ durch eine ausreichende staatliche Finanzierung ausgestattet, um ihre dauerhafte Existenz sicherzustellen: Man stelle sich nur einmal vor, damals wäre die heute vorherrschende Förderung einzelner Projekte in kurzfristiger Finanzierung üblich gewesen.
Außerdem entwickelten diese Bibliotheken verbindliche Katalogisierungssysteme [Wikidata, GND] , um die standardisierte Erschließung des gedruckten Wissens zu ermöglichen. Auf die heutige Situation übertragen bedeutet dies meines Erachtens, dass wir eine mit „Ewigkeitsgarantie“ ausgestattete (inter)nationale Digitale Bibliothek [Wikidata, GND] benötigen, die für die Entwicklung und Pflege eines langfristig stabilen IT-Systems beziehungsweise einer Plattform verantwortlich wäre, das beziehungsweise die sowohl Hard- als auch Software umfasst. Der Planungs- und Entwicklungsprozess müsste vollständig offen und transparent sein, sodass Vorschläge eingebracht und Fehler oder Gefahren langfristig und früh erkannt werden könnten. Dabei sollten nicht nur heute bekannte, gravierende Mängel des bisherigen Hard- und Software-Designs ausgeschlossen beziehungsweise vermieden werden, die offene Hardware – bis hinunter zum Chip-Design – würde zugleich auch eine Monopolisierung [Wikidata, GND] verhindern. Die Software sollte – ähnlich den Vorschlägen Cerfs und Kays [Wikidata, GND] – aus einer virtuellen Maschine bestehen, die jedoch so klein und portierbar wie möglich zu sein hätte: Als Beispiel könnte die Programmiersprache Smalltalk [Wikidata, GND] samt ihrer Entwicklungsumgebung dienen, deren virtuelle Maschine auf über 100 Computerarchitekturen läuft. In, oder vielmehr über dieser virtuellen Maschine läge dann eine Schicht von möglichst wenigen, standardisierten und aufgrund bisheriger Erfahrungen sowie aktuellster Überlegungen zum Softwareentwurf optimierter Middleware [Wikidata, GND] aus Programmiersprache(n) und Grundfunktionen wie beispielsweise für die Hardware-Anbindung und die graphische Darstellung. Weitere Softwarekomponenten wie Office-Programme und Datenbank-Management-Systeme wären ebenfalls Teil des Gesamtsystems, dessen Nutzung dann für staatlich finanzierte Projekte verbindlich sein müsste – ebenso wie die notwendige Rücksprache vor irgendwelchen projektspezifischen Änderungen. So könnte sichergestellt werden, dass die gesamten Daten eines Projekts und deren Strukturen jeweils wieder in das Hauptsystem übernommen werden könnten. Die Institution wäre dann in ständigem Austausch mit den Nutzern verpflichtet, eine möglichst vorsichtige, langfristig extrem stabile Weiterentwicklung zu garantieren, sodass praktisch für jede jeweils absehbare Zukunft eine Abwärtskompatibilität gewährleistet werden könnte.
Dieses Hauptsystem könnte durchaus ein verteilter Server-Cluster sein, der von der zu gründenden Institution und ihren Partnern weltweit verteilt – Stichwort: Redundanz – und parallelisiert, aber beispielsweise zur Sicherheit mittels unterschiedlicher, als Teile der Plattform aber definierter freier Hardware-Architekturen bereitgestellt werden könnte. Für Privatanwender und Firmen könnte dieses System ebenfalls – eventuell nicht kostenfrei – verfügbar sein, damit sie ihre Daten nach Abschluss eines Projektes dort dauerhaft ablegen und – vielleicht nach einer Sperrfrist – frei zur Verfügung stellen könnten.
Es liegt nahe, für dieses System eine Art objektorientierter Struktur anzulegen, die zugleich als Dateisystem wie auch als Meta-Datenbank und zur Ermöglichung einer transparenten Netzverfügbarkeit dienen würde, wodurch es möglich wäre, jedes einzelne Element – beispielsweise wie eine Datei in einem UNIX-System, wo eigentlich alles eine Datei ist beziehungsweise als solche behandelt wird – über einen URL-artigen Identifier anzusprechen. Damit könnte nicht nur gewährleistet werden, dass diese Datenobjekte, deren Größe geradezu beliebig granulierbar wäre, jederzeit über diesen Identifier zu finden wären, unabhängig davon, in welchem Hostsystem der Gesamtplattform seine virtuelle Maschine sich gerade befindet. Zugleich könnte so die Stabilität von Verlinkungen und damit die Verfügbarkeit externer Daten in Projekten sichergestellt werden. Angesichts der praktisch längst schon gegebenen Nicht-Druckbarkeit umfangreicher Forschungsergebnisse könnte dieses System als Webplattform zugleich zur längst fälligen freien Veröffentlichung von Forschungs(roh)daten und Ergebnissen dienen: Dabei wäre der Datenbankeintrag zum Format eines Bildes ebenso wie das Bild selbst, die wissenschaftlichen Kommentare dazu oder der Werkkatalog, in den es mit anderen Bildern aufgenommen wurde, genauso wie jede Forschungsabhandlung und die Kommentare der Peers der Scientific Community dazu adressier- und somit verlinkbar. Dieser objektorientierte Charakter würde es also nicht nur erlauben, wissenschaftliche Kommentare und Bewertungen zu jedem beliebigen Datenobjekt hinzuzufügen und selbst wiederum über eine jeweils eigene Adresse zu referenzieren, sondern das System könnte auch von Grund auf so funktionieren, wie es Wikis eigentlich seit 1995 tun: Jeder Link erzeugt zugleich den Backlink zwischen verlinkendem und verlinktem Datenobjekt. Wissenschaftsbibliometrische Zählsysteme hätten so eine durchaus solidere Grundlage als heute – vorausgesetzt, man will an diesen überhaupt festhalten, wogegen es meines Erachtens mehr gute Gründe gibt als dafür. Vor allem aber wäre in so einem System eine größtmögliche Offenheit gewährleistet: Jede*r Beitragende stünde mit seinem oder ihrem Namen für das Beigetragene, Clusterbildung in Form von Zitierseilschaften und Ähnlichem würde schnell erkennbar und selbst die so tatsächlich allen Peers offen stehende Bewertung von Forschungsanträgen und -ergebnissen wäre endlich anstelle der heutigen Beschränkung auf speziell ausgewählte, aber anonyme Personen – was meines Erachtens das Gegenteil des Peer-Begriffes ist – möglich.
Natürlich dürfte die Entwicklung eines solchen, auf bereits erprobten Konzepten beruhenden, aber im Detail vollständig neuen Systems mindestens einen dreistelligen Millionenbetrag erfordern – aber in Zeiten, in denen wir solche Beträge für die Anschaffung einzelner „Tötungsmaschinen“ ausgeben, die nicht einmal funktionieren, in denen mal eben größere Beträge für absehbar scheiternde Drohnen- oder Mautprojekte rausgeworfen werden, in denen zwei- und dreistellige Milliardenbeträge durch mutwillig nicht geschlossene oder sogar erst erzeugte Steueroasen und -schlupflöcher gestohlen werden können oder in die Rettung von Banken beziehungsweise die sie vertretenden Spekulanten mit ihren Casino-Wetten fließen – in solchen Zeiten kann niemand ernsthaft behaupten, dass ein dreistelliger Millionenbetrag für die dauerhafte Sicherung unserer gesamten wissenschaftlichen Arbeit nicht verfügbar wäre.
Fazit
Die Schlussfolgerung aus dem Gesagten sollte also weder als Parallele zu „[…] lasst uns einen Turm bauen, dessen Spitze bis an den Himmel reicht“ (1. Buch Mose, 11,4) verstanden werden, denn es geht gerade nicht darum, ein hypertrophes Vorhaben zu realisieren. Noch ist die Situation so hoffnungslos, dass man in Anlehnung an Luther mit Hoimar von Ditfurth [Wikidata, GND] sagen müsste: „So lasst uns denn ein Apfelbäumchen pflanzen“.12 Stattdessen sollten wir uns die Zuversicht der Kathedralbauer früherer Jahrhunderte zum Vorbild nehmen und ein Projekt beginnen, dessen vorläufiger Abschluss vielleicht in vergleichsweise ferner Zukunft liegen und ein ständiges Ausbessern und Weiterbauen auf einer einmal als stabil erachteten Grundlage durch eine unbefristet existierende Bauhütte erfordern wird, dessen Ergebnis diesen Aufwand aber mehr als rechtfertigt. Denn meines Erachtens ist es besser, im Verlauf eines solchen Vorhabens eine „Kathedrale“ zu haben, zu der auch der „Basar“ fleißig in Form einzelner Module freier Software beigetragen haben wird und die – wie ihre Vorbilder in der Realität – auf ewig eine Baustelle sein wird, als auf einem stetig wachsenden Haufen aufwendigst hergestellter, aber zueinander vollkommen inkompatibler Bausteine zu sitzen, mit denen niemand in der ferneren oder auch nur der näheren Zukunft mehr etwas anzufangen weiß und die man deshalb, trotz allen Aufwands zu ihrer Herstellung, irgendwann einfach wegwerfen wird.
ORCID®
Bernd Kulawik https://orcid.org/0000-0002-2083-6118
Kunsthistorische Publikationen und Bildrechte zwischen dem BGH-Urteil zu Museumsfotos (2018) und der Umsetzung der Richtlinie (EU) 2019/790. Alte Probleme, neue Entwicklungen
Zur Vergangenheit, Gegenwart und Zukunft des kunsthistorischen Publizierens gehört das Problem der rechtssicheren Abbildung von Kunstwerken. Es ist nicht nur immer wieder strittig, inwieweit Kontrollrechte über Abbildungen aus dem Urheberrecht [Wikidata, GND] oder dem Eigentum [Wikidata, GND] abgeleitet werden können oder müssen, sondern auch, in welchem Umfang Verträge bildrechtliche Sachverhalte regeln dürfen. Viele dieser Kontroversen lassen sich bis in die Anfangszeiten des gesetzlich geregelten Urheberrechts im 19. Jahrhundert zurückführen.1 Zumindest drei Faktoren haben seit etwa dreißig Jahren die Diskussionen um die Reproduktionsrechte im deutschen Recht wieder angeheizt: Erstens die Urheberrechtsreform von 1985, in der erstmals unterschiedliche Rechtsfolgen an den Status einer Fotografie [Wikidata, GND] als Werk (§ 2 UrhG) oder einfaches Lichtbild (§ 72 UrhG) geknüpft wurden,2 zweitens die Fortschritte in der Digitalfotografie und die Verfügbarkeit von Bildreproduktionen über das Internet3 und drittens die Rechtsprechung des BGH (Bundesgerichtshofs) im Fall der Preußischen Schlösser und Gärten, der Verwertungsrechte von Gebäude-Abbildungen, die nicht urheberrechtlich geschützt sind, stattdessen aus dem Grundeigentum herleitete.4 Der Fall eines Wikipedia-Nutzers, der eigene Fotografien aus dem Reiss-Engelhorn Museum in Mannheim sowie Scans aus einem Katalog jenes Museums in die Wikimedia Commons hochgeladen hatte und deswegen zusammen mit der Wikimedia-Stiftung von den Museen verklagt wurde, greift jene Themen sämtlich auf und ist deshalb in diesem Zusammenhang von herausgehobener Bedeutung. Der BGH [Wikidata, GND] hat ihn am 20. Dezember 2018 letztinstanzlich entschieden und damit bis auf weiteres für mehr Rechtssicherheit im Umgang mit Abbildungen gemeinfreier Werke gesorgt, wenngleich nicht unbedingt für eine größere Freiheit der Nutzung.5 Diese soll nun mit der Umsetzung der Richtlinie (EU) 2019/790 in deutsches Recht bis zum Sommer 2021 erreicht werden. Im Folgenden wird auf die Einzelheiten dieser Entwicklung eingegangen.
Die Diskussion um den Lichtbildschutz für fotografische Reproduktionen von Kunstwerken bis zum Urteil des BGH
Seit 1907 bestand für Fotografien [Wikidata, GND] ein Schutz von zehn Jahren ab Veröffentlichung des Bildes (§ 26 KUG), bei unveröffentlichten Bildern 25 Jahre nach Tod des Fotografen.6 Die Schutzdauer wurde 1940 auf 25 Jahre ab Erscheinen des Bildes verlängert.7 Reproduktionsfotografien waren von diesem Schutz zweifelsfrei umfasst, wie das Reichsgericht 1930 bestätigte.8 Als am 1.1.1966 das Gesetz über Urheberrecht und verwandte Schutzrechte (Urheberrechtsgesetz [Wikidata, GND], UrhG) in Kraft trat,9 unterschied der Gesetzgeber erstmals „Lichtbildwerke“ (§ 2 UrhG) und „Lichtbilder [Wikidata, GND]“ (§ 72 UrhG), schützte aber beide für die Dauer von 25 Jahren (§ 68 UrhG). Das Lichtbildwerk war mit dieser kürzeren Schutzdauer gegenüber anderen Werkarten wie Gemälden, Zeichnungen und Skulpturen schlechter gestellt. Zwar gab es zum neuen Gesetz zunächst keine Rechtsprechung, doch sah die Kommentarliteratur fotografische Vervielfältigungen [Wikidata, GND] von Kunstwerken als geschützte Lichtbilder an, unabhängig davon, dass es sich auch um Vervielfältigungen [Wikidata, GND] anderer, eventuell sogar geschützter Werke handelte.10 Die Schutzdauer für einfache Lichtbilder wurde zwei Mal verlängert: 1985 zunächst für Dokumente der Zeitgeschichte auf 50 Jahre,11 mit Wirkung vom 1. Juli 1995 dann für sämtliche Lichtbilder [Wikidata, GND]. Damit waren nun sämtliche Kunstreproduktionen der Nachkriegszeit erfasst. Mit dem Public Domain Day am 1. Januar 2020 wurden Reproduktionen gemeinfrei, die im Jahr 1969 erschienen sind.
Manche Reproduktionsfotografien [Wikidata, GND] wurden freilich durch die Rechtsprechung vom Lichtbildschutz des § 72 UrhG ausgeschlossen. Der BGH [Wikidata, GND] urteilte 1989, dass Fotografien [Wikidata, GND] von Fotografien kein eigener Lichtbildschutz [Wikidata, GND] zukommen könne. Es sei ein Minimum an persönlicher geistiger (heißt: nicht automatischer) Leistung notwendig, um den Lichtbildschutz [Wikidata, GND] nach § 72 UrhG annehmen zu können, das bei Fotografien von Fotografien nicht vorliege.12 Diese Wertung wurde im Jahr 2000 im Telefonkarten-Fall bestätigt.13 Die Rechtsprechung grenzte aber von diesen Fällen diejenigen ab, die fotografische Reproduktionen von Nicht-Fotografien betrafen, etwa von Zeichnungen. So wurden beispielsweise 1996 Fotografien von Beuys-Zeichnungen vom OLG Düsseldorf [Wikidata, GND] als schutzwürdige Lichtbilder [Wikidata, GND] anerkannt.14 Obgleich dies im Ergebnis die seit 1907 bestehende Rechtslage bestätigte, entwickelte sich ein Meinungsstreit um die Schutzfähigkeit von Reproduktionsfotografien gemeinfreier [Wikidata, GND] Werke, der letztlich in die Entscheidung des BGH vom Dezember 2018 mündete. Teile der Literatur schlossen sich der herrschenden Rechtsprechung an: Da die fotografische Reproduktion [Wikidata, GND] einer Zeichnung oder eines Gemäldes nicht vollautomatisch zustande komme und auch keine Fotografie fotografisch vervielfältige, bestehe kein Anlass, an dem Schutz als Lichtbild [Wikidata, GND] zu zweifeln.15 Demgegenüber wurde vorgeschlagen, den Anwendungsbereich des § 72 UrhG einzuschränken: Die fotografische Reproduktion [Wikidata, GND] eines Gemäldes oder einer Zeichnung sei letztlich nicht anders zu bewerten als diejenige einer Fotografie [Wikidata, GND]; außerdem würde eine Gemeinfreiheit [Wikidata, GND] der abgebildeten Werke unterlaufen.16
Das Verfahren Reiss-Engelhorn-Museen gegen Wikimedia und Nutzer
Dieser Meinungsstreit fand sein vorläufiges praktisches Ende am 20. Dezember 2018, als der BGH [Wikidata, GND] entschied, dass fotografische [Wikidata, GND] Reproduktionen [Wikidata, GND] gemeinfreier [Wikidata, GND] Kunstwerke unter den Lichtbildschutz nach § 72 UrhG fallen.17 Das Urteil bildet den zivilrechtlichen Schlusspunkt einer Reihe von Verfahren, welche die Mannheimer Reiss-Engelhorn-Museen gegen die Wikimedia-Stiftung18 sowie einen Internetnutzer19 angestrengt hatte, der Bilddateien im Repositorium der Wikimedia Commons hochgeladen und damit der Öffentlichkeit zugänglich gemacht hatte.
a) Lichtbildschutz für Reproduktionsfotografien
Das Urteil bestätigte zunächst den Lichtbildschutz [Wikidata, GND] gemäß § 72 UrhG für Reproduktionsfotografien, sofern diese nicht ihrerseits Fotografien [Wikidata, GND] vervielfältigten. Da es an dieser Stelle um die praktische Dimension des Urteils und seiner Auswirkungen auf kunsthistorische Publikationen gehen soll, kann eine vertiefte inhaltliche Auseinandersetzung mit der (meines Erachtens nach letztlich nicht befriedigenden) Argumentation unterbleiben; sie ist einer anderen Gelegenheit vorbehalten.20 Das Ergebnis bestätigt indes die seit 1907 bestehende Rechtslage: Reproduktionsfotografien sind grundsätzlich als Lichtbilder geschützt. Fotografien von Fotografien sind es nicht, weil hier das in der Rechtsprechung geforderte Mindestmaß an persönlicher geistiger Leistung nicht erreicht wird. Das gleiche gilt für Scans – hier handelt es sich um technische Reproduktionen [Wikidata, GND], und es fehlt folglich an der persönlichen Leistung.21 Im Falle der Fotografie [Wikidata, GND] von dreidimensionalen Werken wie Skulpturen oder Bauwerken muss hingegen in der Regel sogar über das einfache Lichtbild [Wikidata, GND] hinaus ein Lichtbildwerk angenommen werden.22 Erwin Panofsky hat in einer Nachbemerkung zu seinem Aufsatz Original und Faksimilereproduktion 1930 die Frage nach der Unterscheidung von künstlerischen und Reproduktionsfotografien [Wikidata, GND] hellsichtig beantwortet:
„Weil es sich in allen Fällen, in denen dreidimensionale Objekte photographiert werden, gar nicht um ‚Reproduktionen‘ in dem hier einzig in Rede stehenden Sinne handelt, sondern um eine durchaus persönliche Umschöpfung, bei der der Photograph, wiewohl er sich an Stelle des Pinsels einer ‚Maschine‘ bedient, in bezug auf Ausschnitt, Distanz, Aufnahmerichtung, Schärfe und Beleuchtung nicht sehr viel weniger ‚frei‘ ist als ein Maler. Der wirklichen Reproduktionsphotographie dagegen, d. h. der Photographie eines zweidimensionalen Gemäldes oder einer Zeichnung, kann man wohl ansehen, ob sie über- oder unterexponiert ist, ob das Gemälde bei der Aufnahme gespiegelt hat und ob sie mit orthochromatischen oder gewöhnlichen Platten hergestellt wurde, – nie aber kann hinsichtlich ihrer von einem ‚Element des Zeitstils‘ oder gar des Persönlichkeitsstils die Rede sein.“23
Dies entspricht weitgehend den heutigen rechtlichen Maßstäben, die sich aus der europarechtlichen Anforderung an die Schutzwürdigkeit von Lichtbildwerken ergeben. Art. 6 der Richtlinie (EU) 2006/116/EG schützt Fotografien, „wenn sie individuelle Werke in dem Sinne darstellen, dass sie das Ergebnis der eigenen geistigen Schöpfung ihres Urhebers sind. Zur Bestimmung ihrer Schutzfähigkeit sind keine anderen Kriterien anzuwenden.“ Der Europäische Gerichtshof (EuGH [Wikidata, GND]) hat diesen Maßstab 2011 in der Rechtssache Eva-Maria Painer gegen die Standard Verlags-GmbH und andere bestätigt und für den Fall der Porträtfotografie konkretisiert. Eva-Maria Painer ist eine Fotografin, die unter anderem in Schulen und Kindergärten fotografiert. Die österreichische Polizei hatte im Entführungsfall Natascha Kampusch eine ihrer Fotografien der Entführten für ihre Fahndungsaufrufe verwendet. Nachdem die gelungene Flucht Kampuschs ein großes Medieninteresse entfacht hatte, klagte Painer gegen die wiederholte Verwendung ihrer Fotografie zur Illustration der Berichte. Der EuGH [Wikidata, GND] musste sich mit der Frage auseinandersetzen, ob diese Fotografien urheberrechtlich geschützt seien und definierte hierfür allgemeingültige Kriterien im Anschluss an die Richtlinie (EU) 2006/116/EG: Eine eigene geistige Schöpfung [Wikidata, GND] und damit ein schutzwürdiges Original liegt demnach (und nur dann) vor, wenn in der Fotografie die Persönlichkeit des Urhebers zum Ausdruck kommt, indem er freie kreative Entscheidungen trifft. Solche Entscheidungen sind beispielsweise solche über die Beleuchtung, Perspektive und Bildausschnitt; hinzu kommen weitere kreative Entscheidungen bei der Nachbearbeitung.24 Diese für die Porträtfotografie angenommenen kreativen Spielräume bestehen weitgehend auch für die Fotografie dreidimensionaler Kunstwerke, sodass hier in der Regel von einem Schutz als Lichtbildwerk auszugehen ist.25 Als Fazit besteht also höchstrichterlich bestätigt in Deutschland folgender Schutz für Reproduktionsfotografien [Wikidata, GND]:
fotografisch reproduziertes Werk | Schutz nach dem UrhG |
Fotografie | kein Schutz |
zweidimensional (Gemälde / Zeichnung) | Lichtbildschutz nach § 72 UrhG |
dreidimensional (Skulptur / Bauwerk) | Lichtbildwerkschutz nach § 2 UrhG |
Bemerkenswert ist das vom BGH [Wikidata, GND] im Museumsfoto-Urteil vorgebrachte Argument, ein Lichtbildschutz für Reproduktionen gemeinfreier Werke unterlaufe die Gemeinfreiheit [Wikidata, GND] nicht: Die Allgemeinheit sei an der Auseinandersetzung mit dem gemeinfreien Werk nicht gehindert, nur weil ein konkretes Lichtbild [Wikidata, GND] nicht vervielfältigt werden dürfe. Außerdem lasse das 2018 erweiterte Zitatrecht (§ 51 Satz 3 UrhG) die Nutzung der Abbildung eines Werkes unter den gegebenen Voraussetzungen zu.26 Diese Ausführungen verlangen einen näheren Blick, da sie innerhalb des Urheberrechts eigentlich systemwidrig sind. Die Schranke des Zitatrechts (§ 51 UrhG) gilt grundsätzlich für geschützte und nicht für gemeinfreie Werke.27 Sie erlaubt die Abbildung eines an sich geschützten Werkes „zum Zwecke des Zitats, sofern die Nutzung in ihrem Umfang durch den besonderen Zweck gerechtfertigt ist.“ Das heißt auf die Situation kunsthistorischer Publikationen bezogen nach Nummer eins der Vorschrift, wenn „einzelne Werke nach der Veröffentlichung in ein selbständiges wissenschaftliches Werk zur Erläuterung des Inhalts aufgenommen werden“. Das Zitatrecht setzt also eine spezifische inhaltliche Verbindung von (kunsthistorischem) Text und abgebildetem (zitierten) Werk voraus. Der Text muss das Werk erläutern (und nicht nur beschreiben) und muss eine „innere Verbindung“ zum zitierten Werk herstellen. Unzulässig ist es, das zitierte Werk nur zur Ausschmückung ohne Belegfunktion aufzunehmen.28 Damit ist die Zitierfreiheit deutlich beschränkter als es die Gemeinfreiheit [Wikidata, GND] vorsieht, die auch schmückende oder kommerzielle Nutzungen erlaubt.29 Das obiter dictum aus der Museumsfoto-Entscheidung des BGH [Wikidata, GND] ist deshalb bereits auf Ablehnung in der Rechtswissenschaft gestoßen.30 Obgleich es methodisch zweifelhaft ist, weil keine Gesetzeslücke festgestellt werden kann,31 lässt es sich in seinen Folgen als richterliche Rechtsfortbildung verstehen, die immerhin das Zitatrecht als Minimalniveau der Gemeinfreiheit ausformuliert hat. Insofern bestehen für die Nutzung von Abbildungen zur Erläuterung kunsthistorischer Inhalte zumindest keine größeren Einschränkungen als für urheberrechtlich (noch) geschützte Werke.
c) Kontrolle durch Fotografierverbote
Wenn nunmehr durch den BGH [Wikidata, GND] bestätigt die Lichtbilder [Wikidata, GND] eines gemeinfreien Werkes geschützt sind, im konkreten Fall aber ein Zitatrecht nicht infrage kommt, steht grundsätzlich die Anfertigung einer eigenen Fotografie [Wikidata, GND] als Lösungsweg offen. Allerdings besteht kein Anspruch auf Zugang [Wikidata, GND] zu gemeinfreien Werken – auch nicht in öffentlichen Sammlungen. Darüber hinaus dürfen Sammlungen in ihren Räumlichkeiten selbst Fotografierverbote festlegen. Die Reiss-Engelhorn-Museen waren nicht nur gegen online gestellte Scans aus ihren Katalogen vorgegangen, sondern auch gegen Fotografien gemeinfreier Werke [Wikidata, GND] aus ihren Sammlungen, die ein Besucher unter Missachtung des Fotografierverbots angefertigt und dann über die Wikimedia Commons zugänglich gemacht hatte. Der BGH [Wikidata, GND] urteilte, in einem solchen Fotografierverbot liege keine unangemessene Benachteiligung. Typischerweise gehöre es zu einem Besichtigungsvertrag [Wikidata, GND], wie er einem Museumsbesuch zugrunde liegt, die Exponate persönlich wahrnehmen zu können – nicht jedoch, von den Exponaten Fotografien [Wikidata, GND] anzufertigen.32 Auch hier bestehen Zweifel an der Argumentation, das praktische Ergebnis ist aber eindeutig: Museen können und dürfen das Fotografieren in ihren Räumen verbieten. Der fotografierende Besucher kann dann mit seinen Rechten als Lichtbildner wenig anfangen, da diese Bilder vertragswidrig hergestellt worden sind.33 Damit können die Eigentümer eines gemeinfreien Werkes faktisch die Monopolposition [Wikidata, GND] eines Urhebers einnehmen, insofern sie nicht nur die Anfertigung neuer fotografischer Reproduktionen kontrollieren, sondern auch deren Vertrieb über Nutzungsverträge [Wikidata, GND] für Bilddateien.34 „Für Museen ist das Urteil erfreulich“, fasst eine Kommentatorin das Ergebnis zusammen.35
In dieser Tendenz steht das Urteil des BGH [Wikidata, GND] nicht allein in Europa.36 Für die Rechtslage in Großbritannien ist argumentiert worden, dass der Brexit [Wikidata, GND] die Chance für einen weiter gehenden Schutz von Museumsreproduktionen biete.37 In Italien hat das Tribunale Firenze unter Anwendung des Codice dei beni culturali , Decreto legislativo n. 42/2004 geurteilt, dass die kommerzielle Verwertungsrechte an Michelangelos David exklusiv der Galleria dell’Accademia zustehen.38 In Frankreich hat der Conseil d’État [Wikidata, GND] nach zehnjähriger Verfahrenszeit die Existenz zweier unterschiedlicher Gemeinfreiheiten angenommen, eine für das Urheberrecht und eine für Objekte in öffentlichem Besitz (domaine public mobilier). Letztere würde durch die Museen geregelt, die auch nach dem Eintritt eines Werkes in die Gemeinfreiheit Fotografierverbote aussprechen dürften.39 Erik Jayme berichtet ergänzend von einer jüngeren Entscheidung des Conseil Constitutionnel, die das Bild nationalen Eigentums schützt.40
Die Richtlinie (EU) 2019/790 und deren Umsetzung bis 7. Juni 2021
Die vom BGH-Urteil [Wikidata, GND] zu Museumsfotos bestätigten, in Europa mittlerweile weiter verbreiteten Grundsätze werden allerdings bis zum Sommer 2021 teilweise überholt sein. Zwar bleibt in Deutschland das Recht der Museen bestehen, vertragliche Fotografierverbote auszusprechen,41 doch wird der Lichtbildschutz für Abbildungen [Wikidata, GND] gemeinfreier Werke [Wikidata, GND] abgeschafft werden.42 Die am 6. Juni 2019 in Kraft getretene Richtlinie zum Urheberrecht im digitalen Binnenmarkt sieht in Art. 14 vor, „dass nach Ablauf der Dauer des Schutzes eines Werkes der bildenden Kunst Material, das im Zuge einer Handlung der Vervielfältigung dieses Werkes entstanden ist, weder urheberrechtlich noch durch verwandte Schutzrechte geschützt ist, es sei denn, dieses Material stellt eine eigene geistige Schöpfung dar.“
Die Diskussion um die richtige Umsetzung dieser Norm in nationales Recht ist angelaufen. Wie zu erwarten sind zahlreiche Einzelheiten umstritten. David Seiler hat noch während des europäischen Beschlussverfahrens der Richtlinie vorgeschlagen, die Freiheit der Reproduktionsfotografie auf den Umfang des Zitatrechts zu beschränken.43 Gernot Schulze spricht sich für eine Umsetzung als eng auszulegende Schranke des Lichtbildschutzes aus,44 Felix Stang für eine Bereichsausnahme im Lichtbildschutz selbst.45 Lichtbilder, die zum Zeitpunkt der Gemeinfreiwerdung (also am jeweiligen Public Domain Day) noch geschützt sind, sollen ihren Schutz nicht verlieren.46 Allerdings gibt der Wortlaut des Art. 14 der Richtlinie dies gerade nicht vor, sondern spricht allgemein von „Material, das […] entstanden ist“ – die Angabe „nach Ablauf der Dauer des Schutzes“ bezieht sich nicht auf die Entstehung dieses Materials, sondern nur auf den Zeitpunkt des Eintritts der Gemeinfreiheit.47 Ferner ist die Ansicht vorgetragen worden, Art. 14 beziehe sich nur auf digitale Kopien.48 Aus dem Anlass einer zunehmend digitalisierten Arbeitsumgebung lässt sich aber, wie Felix Stang zutreffend ausführt, keine Schlussfolgerung über den Schutzbereich ziehen.49 Eine klare, unmissverständliche Ergänzung des § 72 UrhG wäre zu begrüßen. Sie könnte schlicht lauten: „Ausgenommen sind Lichtbilder, die ein Werk der bildenden Künste wiedergeben, dessen Urheberrechte erloschen sind.“ Der Diskussionsentwurf des Bundesministeriums der Justiz und für Verbraucherschutz vom 24. Juni 2020 enthielt stattdessen einen neuen § 68 UrhG: „Erlischt das Urheberrecht an einem visuellen Werk, so erlischt auch der Schutz von Vervielfältigungen dieses Werkes durch verwandte Schutzrechte nach den Teilen 2 und 3.“50 Es bleibt abzuwarten, welchen Weg die Gesetzgebung [Wikidata, GND] nach dem durchgeführten Konsultationsverfahren letztlich einschlagen wird. Der Weg zu rechtlichen Konzepten, welche die Komplexitäten von Zugang und Eigentum auf eine befriedigende und befriedende Weise regeln, ist noch nicht zu Ende gegangen.51
Aufhorchen lassen freilich Stimmen, die davon ausgehen, dass sogar reproduzierende Lichtbildwerke frei verwendbar sein sollen. In den FAQ zum Referentenentwurf zur Anpassung des Urheberrechts an die Erfordernisse des digitalen Binnenmarkts52 ist die Rede von Abbildungen von Skulpturen. Dies würde eine Unterscheidung von vorwiegend reproduzierenden Lichtbildwerken und vorwiegend schöpferischen Lichtbildwerken notwendig machen – eine Rechtsfrage, an der sich einige der vom BGH mit dem Urteil zu den Museumsfotos abgeschlossenen Diskussionen neu entzünden dürften.
ORCID®
Grischka Petri https://orcid.org/0000-0002-2548-449X
Open Access für die Maschinen
Aktuelle Debatten um Open Access
Die Diskussion um das Thema Open Access in den Wissenschaften hat sich in den letzten Jahren deutlich gewandelt. Auch wenn die Praxis vielfach den Überzeugungen etwas hinterherhinkt und das Ausmaß der Nutzung von Preprint-Servern, der Anteil der Open-Access-Zeitschriften oder die freie Verfügbarkeit von Konferenz-Proceedings variieren, ist doch in weiten Teilen des Wissenschaftssystems zumindest für Zeitschriftenartikel und Konferenzpapers nicht mehr strittig, dass das Publizieren im Open Access sinnvoll und wissenschaftsadäquat ist.1 Zu den gängigsten Argumenten gehört, dass die Ergebnisse von mit öffentlichen Mitteln geförderter Forschung auch der Öffentlichkeit in einem weiten Sinne zugänglich sein sollten und dass wissenschaftlicher Fortschritt am besten durch die weltweite, freie Verfügbarkeit wissenschaftlicher Publikationen gefördert werden kann.
Derzeit wird demnach weniger intensiv über das Warum diskutiert, dafür aber umso mehr über das Wie, wobei der Fokus der Debatten deutlich auf der Frage der angemessenen Finanzierungsmodelle liegt. Die zentrale Frage lautet, wie die für Publikation und Dissemination entstehenden Kosten einerseits, die Kosten für langfristige Weiterentwicklung und Verfügbarkeit von Publikationsinfrastrukturen andererseits finanziert werden können, wenn dies nicht mehr wie bisher über Subskriptionen erfolgt. Unter den derzeit diskutierten und praktizierten Modellen sind unter anderem die sogenannten Article Processing Charges (die von den Autor*innen beziehungsweise ihren Institutionen oder Projektfördernden zu tragenden Publikationsgebühren), die groß angelegten Read-and-Publish-Abkommen (wie die vom DEAL-Konsortium angestrebten Verträge mit Großverlagen auf nationaler Ebene) oder neue kollektive Finanzierungsmodelle (wie beispielsweise das Mitgliedschaftsmodell der Open Library of Humanities) zu nennen.2 Wie kann eine Umschichtung gelingen, die sich weg von Subskriptionsbudgets in Bibliotheken und hin zur Förderung von Verlagen und Initiativen bewegt, die im Open Access publizieren? Wie kann vermieden werden, dass die bisherige Zugangsungerechtigkeit (nur wer bezahlen kann, darf wissenschaftliche Ergebnisse anderer lesen) lediglich durch eine Publikationsungerechtigkeit (nur wer bezahlen kann, darf wissenschaftlichen Ergebnisse publizieren) ersetzt wird?3 Gerade diese letzte Frage hat auch eine stark internationale Dimension und ist insofern auch von politischer Bedeutung.
Die Lösung der Finanzierungsfrage ist zweifelslos von großer Bedeutung, nicht nur, aber gerade auch in den Geisteswissenschaften. Der vorliegende Beitrag möchte den Fokus allerdings auf einen anderen Aspekt der Wie-Frage lenken, der in den intensiven Debatten um die Finanzierungsaspekte derzeit zu kurz kommt: nämlich auf die Frage der wissenschaftsadäquaten Publikationsformate [Wikidata, GND]. In der Praxis dominiert klar die PDF-Datei, die als digitale Entsprechung des gedruckten Buches oder Zeitschriftenartikels fungiert. Einige ihrer Eigenschaften erklären die Akzeptanz und den Erfolg dieses Formats: die direkte Entsprechung zwischen Druckfassung und digitaler Fassung bis ins Layout hinein; der Erhalt der Seitenzählung und damit der Möglichkeit, gewohnte Zitierpraktiken weiterzuführen; oder die scheinbare Unveränderlichkeit und damit Verlässlichkeit einer PDF-Datei. Außer für die Distribution und individuelle Lektüre der Publikationen ist dieses Format allerdings (trotz einiger Erweiterungen wie PDF/A für die Archivierung und Tagged PDF für bessere accessibility) nur eingeschränkt geeignet. Die Arbeitsgruppe Digitales Publizieren des DHd-Verbands empfiehlt in diesem Kontext beispielsweise: „Nutzen Sie PDF nicht als primäres Publikationsformat (Kodierungsschicht), sondern, wenn überhaupt, als derivatives Leseformat.“4 Sowohl für die Langzeitarchivierung als auch für die computergestützte Auswertung größerer Bestände an Publikationen sind andere Formate klar im Vorteil.
Wissenschaftliche Publikationen als Daten
Sobald man sich mit weniger als nur einer Handvoll von Publikationen aus der stetig wachsenden Forschungsliteratur befassen möchte, das heißt, sobald es nicht mehr nur um die Lektüre, sondern um die Verwendung der Publikationen als Datengrundlage für eine quantitative Analyse geht, zeigen sich die zahlreichen Schwächen des PDF-Formats. Wendet man die FAIR-Prinzipien [Wikidata, GND] (FAIR: findable, accessible, interoperable, re-useable) statt auf die Publikation von Forschungsdaten, auf wissenschaftliche Publikationen [Wikidata, GND] als Daten [Wikidata, GND] an, wird schnell klar, wie desaströs die aktuell dominierende Praktik der Publikation ausschließlich als PDF-Datei ist.5 Solche Beiträge sind zwar findable (über persistente Identifier und Metadaten, die heutzutage häufig vorliegen) und, wenn sie im Open Access erscheinen, auch ohne größere finanzielle oder technische Hürden accessible. Sie sind aber eben nur äußerst eingeschränkt interoperable und re-useable: So ist der Text in einer PDF-Datei zwar extrahierbar, allerdings ohne wesentliche Strukturinformationen. Die Trennung zwischen Lauftitel, Haupttext und Anmerkungen ist bestenfalls indirekt, über typografische Hinweise oder andere Muster erschließbar. Innerhalb des Haupttextes kann nicht zuverlässig zwischen verschiedenen Textabschnitten (beispielsweise Abstract, Einleitung, analytischem oder interpretierendem Teil, Ergebnissen oder auch zwischen Haupttext und Belegzitaten im Blocksatz) unterschieden werden. Auch semantische Information ist nicht explizit vorhanden, denn innerhalb des Textes können Entitäten [Wikidata, GND] (Personen, Werke, Organisationen) oder Konzepte [Wikidata, GND] (Fachbegriffe, Abstrakta) nicht gezielt adressiert werden. Ebenso wenig kann innerhalb der bibliografischen Angaben gezielt nach Autor*innen, Herausgeber*innen, Titeln, Publikationsdaten oder Verlagen gesucht werden.
Ihr wahres Potenzial können wissenschaftliche Publikationen unter diesen Umständen nicht ausspielen. Dies können sie erst, wenn sie nicht nur digital und frei zugänglich veröffentlicht werden, sondern auch in strukturierten und semantisch angereicherten Formaten [Wikidata, GND] verfügbar sind. Entsprechende Publikationsstrategien, bei denen soweit wie möglich nicht nur menschen-, sondern auch maschinenlesbare [Wikidata, GND] Publikationen [Wikidata, GND] entstehen, werden seit gut zehn Jahren (angelehnt an die Idee des Semantic Web [Wikidata, GND]) unter dem Stichwort Semantic Publishing diskutiert.6 Ähnlich wie im Falle des Aufbaus und der Publikation geisteswissenschaftlicher Datensätze, sind große Mengen wissenschaftlicher Publikationen zwar nützlich, noch besser aber sind semantisch und strukturbezogen angereicherte Publikationen, die so selbst zu Datensätzen werden.
Einige in diesem Zusammenhang einschlägige Anwendungsszenarien seien hier kurz skizziert. Die linguistische Analyse von Wissenschaftssprache interessiert sich so beispielsweise für die sprachlichen Eigenschaften der Texte verschiedener Disziplinen oder unterschiedlicher Typen von wissenschaftlicher Literatur; sie könnte sich mit strukturbezogen annotierten [Wikidata, GND] Publikationsdaten aber auch für Vokabular, Stilistik und Argumentationsmustern funktional verschiedener Abschnitte wissenschaftlicher Texte (wie Einleitung, Hauptteil oder Fazit) befassen. Die quantitative Forschung zur Fachgeschichte beispielsweise könnte durch detaillierte und groß angelegte Analysen von Zitationsnetzwerken auf der Grundlage strukturierter Bibliografien auf wesentlich breitere, empirische Grundlagen gestellt werden. Und die korpusbasierte Erarbeitung von Forschungsständen zu einem bestimmten Autor, Werk oder Problem profitiert schon heute von Abstracts und Schlagworten, könnte aber wesentlich präziser und reichhaltiger arbeiten, wenn die wesentlichen Entitäten im Text annotiert und die Kernaussagen aller Publikationen maschinenlesbar [Wikidata, GND] abrufbar und automatisch zu einem Netzwerk von Aussagen verknüpfbar wären.
Die wesentlichen Anforderungen an die Möglichkeiten, die solche maschinenlesbaren wissenschaftlichen Publikationen bieten sollten, lassen sich wie folgt zusammenfassen:
- explizite Kodierung von Textstrukturen (unter anderem Haupttext versus Anmerkungen; Einleitung, Hauptteil, Fazit; gegebenenfalls Daten, Hypothesen, Methoden, Ergebnisse; Autor*innentext versus Zitate)
- strukturierte Kodierung von bibliografischen Verweisen (unter anderem bibliografische Angaben einschließlich persistenter Identifier wie DOIs für Forschungsliteratur und gegebenenfalls Primärquellen)
Der Nutzen der ersten vier hier genannten Anforderungen ist weitgehend unstrittig. Überwiegend liegen auch technische Lösungen vor, die lediglich genutzt und, um diese Nutzung zu fördern, von den bestehenden Publikationsinfrastrukturen (besser) unterstützt oder stärker für die Nachnutzung durch Dritte geöffnet werden müssten.
Die strukturierte Kodierung von dokumentbezogenen Metadaten [Wikidata, GND] (Anforderung 1) wird derzeit überwiegend separat von den Artikeltexten selbst in den Datenbanken der Anbieter gehandhabt, wo sie selbstverständlich für Discovery-Zwecke intensiv genutzt werden. Eine stärkere Integration könnte dadurch umgesetzt werden, dass entsprechende Metadaten [Wikidata, GND] in den "Properties"-Bereich einer PDF-Datei eingebettet werden. Andere Verfahren sind, den DOI als Verweis auf den Beitrag und die entsprechenden Metadaten vorzuhalten oder, wenn mit einem semi-strukturierten Format gearbeitet wird, diese Metadaten im entsprechenden Bereich der XML-Datei (beispielsweise in JATS oder TEI) zu kodieren.7
Für die explizite Kodierung von Textstrukturen beispielsweise durch Zuordnung von Textabschnitten zu strukturellen oder semantischen Klassen (Anforderung 2) gilt, dass dies im Kontext von PDF-Dateien (trotz eigentlich vorhandener Möglichkeiten) in der Regel nicht umgesetzt wird. Zu sehr dominiert das layoutbezogene Verständnis der PDF-Datei, zu wenig entwickelt sind auch die Infrastrukturen, die solche Informationen nutzen könnten. Hier ist man auf die Möglichkeiten von XML-basierten Formaten wie JATS oder TEI angewiesen, die allerdings im Zeitschriftenbereich (noch) eine marginale Rolle spielen. Bisher akzeptieren nur die wenigsten Zeitschriften oder Verlage Manuskripte in solchen Formaten. Ausnahmen von dieser Regel sind das Digital Humanities Quarterly (DHQ) und das Journal of the Text Encoding Initiative (jTEI), die XML-TEI verwenden.8 Die Journal-Anbieter Public Library of Science (PLOS) und Open Library of Humanities generieren für ihre Zeitschriftenartikel eine XML-Fassung in JATS und bieten diese zum Download an. Im naturwissenschaftlichen und informatischen Bereich wird häufig LaTeX akzeptiert. Elsevier beispielsweise konvertiert dieses intern zu XML, publiziert dieses aber nicht.
Für die strukturierte Kodierung von bibliografischen Verweisen (Anforderung 3) wiederum liegen eine ganze Reihe gut etablierter Datenformate vor, unter denen sich BibTeX [Wikidata, GND] sicherlich als besonders zentral herausgestellt hat. Zahlreiche Tools, wie das kostenpflichtige Citavi oder das kostenfreie Zotero, ermöglichen die komfortable Verwaltung solcher Daten sowie ihre Nutzung beim Schreiben wissenschaftlicher Texte.9 Ganz überwiegend werden diese Formate und Programme heute allerdings lediglich dazu genutzt, um eine einheitlich nach einem arbiträren Zitationsstil formatierte Bibliografie [Wikidata, GND] zu generieren, die dann dem Text beigefügt wird, allerdings unter Verlust der expliziten Strukturiertheit der Daten. Auch existierende Konzepte für die Erweiterung solcher Daten beispielsweise um Angaben zum Verwendungszweck einer Referenz in einer Publikation unter Verwendung einer Ontologie [Wikidata, GND] wie der Citation Type Ontology (CiTO) werden kaum genutzt.10 Diese Daten besser zu nutzen, erfordert durchaus weitreichende Infrastrukturanpassungen, beispielsweise die Möglichkeit, einer gegebenen Publikation gewissermaßen als Supplement eine BibTeX-Datei [Wikidata, GND] mit den bibliografischen Angaben [Wikidata, GND] beizufügen.11
Linked Open Data für die Kodierung von Inhalten
Kommen wir nun aber zu den beiden letzten Anforderungen, die sich unmittelbar auf den Einsatz von Linked Open Data [Wikidata, GND] beziehen. Seit David Shottons Artikel von 2009 hat sich das Publikationswesen stark verändert. Dennoch gilt wohl weiterhin, was er damals formulierte: "With a few shining exceptions, online journals currently provide no semantic mark-up of text that would facilitate increased understanding of the underlying meaning."12 Die von Shotton genannten Beispiele haben sich nicht durchgesetzt, die semantische Wende des wissenschaftlichen Publikationswesens steht noch aus. Dies hat sicherlich vielfältige Gründe, unter denen wohl auch mangelndes Bewusstsein für den Nutzen und die Möglichkeiten zur Umsetzung einer solchen semantischen Kodierung von Bedeutung ist. An diesem Punkt möchte der vorliegende Beitrag ansetzen.
Die maschinenlesbare [Wikidata, GND] Auszeichnung der Entitäten [Wikidata, GND] und Konzepte [Wikidata, GND] in einem Beitrag (Anforderung 4) ist im Grunde nichts Neues: Es handelt sich hier letztlich um die Grundlage für das Erstellen eines Stichwortverzeichnisses oder Registers, wie sie bei Sachbüchern üblich sind. Diese beziehen sich in der Regel auf Entitäten (wie Personen, Organisationen, Orte und Werktitel) einerseits, auf Konzepte (Abstrakta, Konzepte, Fachbegriffe) andererseits. Neu im Kontext digitaler Publikationen ist allerdings, dass die Indizierung nicht nur innerhalb einer Publikation das Register mit den Fundstellen im Text verbindet und so die Publikation erschließt, sondern dass die Entitäten und Konzepte durch die Verknüpfung mit Normdaten 13 eindeutig identifiziert, in eine domänenspezifische Ontologie [Wikidata, GND] integriert und so als Linked (Open) Data [Wikidata, GND] Teil des Semantic Web [Wikidata, GND] werden können.14 Zudem sollten solche Auszeichnungen selbstverständlich nicht nur manuell durch die Autoren eingefügt, sondern verfügbare Werkzeuge zur automatischen Annotation (zum Beispiel durch Named Entity Recognition) und zur Eingliederung in jeweils relevante Ontologien [Wikidata, GND] genutzt werden.
Durch eine solche Integration der Artikelinhalte in das Semantic Web [Wikidata, GND] wird nicht nur eine Indizierung über zahlreiche Publikationen hinweg möglich, sondern die indizierten Entitäten [Wikidata, GND] und Konzepte können zugleich dynamisch durch weitere Informationen angereichert werden: erwähnte Personen beispielsweise durch Lebensdaten und Wirkungsort(e) oder Disziplin(en). Beides erfordert Infrastrukturen [Wikidata, GND] in einem mehrfachen Sinne: im Sinne von Datenformaten, die eine entsprechende Anreicherung von Publikationen erlauben; von Normdatensätzen, auf die für die Disambiguierung und Anreicherung von Entitäten [Wikidata, GND] verwiesen werden kann; und von Publikationsinfrastrukturen, die eine entsprechende Indizierung, Verlinkung und Nutzung der Daten dann auch ermöglichen. Was die Datenformate [Wikidata, GND] angeht, so ist JATS hier begrenzt expressiv, während TEI [Wikidata, GND] alle wesentlichen Mechanismen bereitstellt. Bezüglich der Publikationsinfrastrukturen sind dem Verfasser keine Publikationsplattformen, Verlage oder Zeitschriften bekannt, die entsprechend annotierte Datenformate bei der Einreichung akzeptieren und die Daten dann auch für die Publikation nutzen würden. Allerdings gibt es hier von anderen Einsatzgebieten von Normdaten, beispielsweise in der Editionsphilologie, einiges zu lernen.15 Nicht zuletzt erfordert die Integration ins Semantic Web [Wikidata, GND] aber eben auch Open Access, damit der freie Zugriff auf relevante Publikationen quer über alle Publikationsorte und nicht nur auf das Portfolio eines Anbieters beschränkt erfolgen kann. Dies steht allerdings in direktem Widerspruch zu den Interessen der Verlage, welche ihre Leser*innen auf der eigenen Plattform halten möchten.
Die letzte oben genannte Anforderung lautet, dass eine maschinenlesbare [Wikidata, GND] Publikation [Wikidata, GND] ihre Kernaussagen oder Ergebnisse in sorgfältig semantisch modellierter Form anbieten sollte. Seringhaus und Gerstein nennen dies ein „Structured Digital Abstract“ und definieren dieses als ein „machine-readable XML summary of pertinent facts in the article“.16 Anders als die bis hierher diskutierten Anforderungen ist diese Anforderung weniger allgemein akzeptiert, zumindest im Kontext des Verfassens wissenschaftlicher Publikationen. Mit diesem Stand der Entwicklung hängt zusammen, dass es sowohl weniger spezifische und ausreichend weit entwickelte technische Lösungen gibt, als auch dass das Thema an sich konzeptionell noch weit weniger gut reflektiert ist. Dabei sind die technische Implementierung einerseits und die konzeptuelle Lösung andererseits zu unterscheiden. Die technische Implementierung erscheint zum aktuellen Stand der Debatte sekundär und ist vor allem eine Frage der Konsensbildung und der verfügbaren Tools in einer Community [Wikidata, GND]. Klar scheint allerdings, dass eine solche Implementierung (wie im Falle der Auszeichnung von Entitäten [Wikidata, GND] und Konzepten [Wikidata, GND]) die Mechanismen von Linked Open Data [Wikidata, GND] (LOD) und damit des Semantic Web [Wikidata, GND] nutzen sollte.
Der Fokus soll im Folgenden daher auf der konzeptionellen Seite liegen, dem vermutlich kontroversesten Aspekt des Themas. Ein Teil der Schwierigkeit ergibt sich im geisteswissenschaftlichen Kontext zudem daraus, dass hier (anders als beispielsweise in der Biologie oder Chemie, wo zahlreiche relevante Ontologien [Wikidata, GND] vorliegen, oder in der Linguistik, wo es mit „Linguistic Linked Open Data (LLOD)“17 bereits umfassende Erfahrungen und einschlägige Projekte gibt) die Verwendung von Linked Open Data [Wikidata, GND] (zumindest jenseits der Kodierung grundlegender bibliografischer Metadaten und jenseits der digitalen Editionswissenschaften) noch kaum verankert ist. Daher sollen hier einige Überlegungen in diese Richtung anhand eines Fallbeispiels angestellt werden, das aus dem Fachgebiet des Verfassers, der Literaturgeschichte [Wikidata, GND], kommt.
Die Fallstudie nimmt die Perspektive der retrospektiven Anreicherung existierender wissenschaftlicher Publikationen [Wikidata, GND] durch „Structured Digital Abstracts“ ein. Die hier zu sammelnden Erfahrungen werden aber auch für die Beantwortung der Frage nützlich sein, wie der Inhalt neu entstehender wissenschaftlicher Publikationen maschinenlesbar dokumentiert werden kann. Inhaltlich geht es um den französischen Roman der zweiten Hälfte des 18. Jahrhunderts. Ausgehend von einer Bibliografie [Wikidata, GND] aller in Frankreich zwischen 1750 und 1799 erschienen Romane (es sind rund 2000 verschiedene Titel), die bereits als LOD [Wikidata, GND] modelliert wurde,18 werden die dort enthaltenen Entitäten [Wikidata, GND] (Romane und Romanautor*innen) nun aus einschlägiger Fachliteratur [Wikidata, GND] mit fachwissenschaftlich, das heißt literaturhistorisch relevanten Aussagen angereichert und damit auch erschlossen.19
„Candide ist das meistgelesene Werk Voltaires und war es wohl schon zu Lebzeiten des Autors. Als es 1759 in Genf erstmals im Druck erschien, wurde es zwar sofort verboten, aber doch nur mit dem Ergebnis, daß es im gleichen Jahr noch dreizehn Neuauflagen erlebte.“20
Die Grundidee ist nun, zentrale Inhalte eines solchen Textes in Form basaler Aussagen festzuhalten, die in Form von „Subjekt-Prädikat-Objekt“-Statements im Sinne der Linked Open Data formuliert und als sogenannte Tripel beispielsweise in einem Format wie RDF oder Turtle festgehalten werden.21
Zunächst einmal kann sich eine semantische, explizite Kodierung von Aussagen [Wikidata, GND] in einer wissenschaftlichen Publikation auf die annotierten Entitäten [Wikidata, GND] und Konzepte [Wikidata, GND] stützen, deren Auszeichnung im Sinne von Anforderung 4 (siehe oben) hier vorausgesetzt wird. Es liegen also bereits Mechanismen vor, mit denen man, einem Linked Open Data-Ansatz folgend, auf Entitäten [Wikidata, GND] und Konzepte [Wikidata, GND] verweisen und diese als Entitäten [Wikidata, GND] in Statements [Wikidata, GND] verwenden kann. Relevante Entitäten [Wikidata, GND] sind im hier verhandelten Fallbeispiel dann Personen (konkret: Autor*innen entweder von Romanen oder von Fachliteratur; hier: Voltaire), andererseits Werke (konkret: entweder Romane oder fachwissenschaftliche Einzelartikel, Einzelkapitel oder monografische Publikationen; hier: Candide).22 Das Inventar der denkbaren Entitäten ist grundsätzlich als unabgeschlossene Liste zu verstehen und somit auch nicht zu kodifizieren. Darüber hinaus können auch aus grundlegenden literaturwissenschaftlichen Bereichen wie Inhalt, Stil, Genre, Epoche etc. konzeptuelle Entitäten [Wikidata, GND] gewonnen werden. Die Annotation (in XML-TEI und unter Verwendung von Identifiern aus Normdatensätzen wie dem VIAF oder dem Getty Thesaurus of Geographical Names) könnte dann wie folgt aussehen:
<p><title type="work" ref="viaf:176620251">Candide</title> ist das meistgelesene Werk <persName type="author" ref="viaf:36925746">Voltaires</persName> und war es wohl schon zu Lebzeiten des Autors. Als es <date>1759</date> in <placeName type="city" ref="tgn:7007279">Genf</placeName> erstmals im Druck erschien, wurde es zwar sofort verboten, aber doch nur mit dem Ergebnis, daß es im gleichen Jahr noch dreizehn Neuauflagen erlebte.</p>
Weniger konzeptuelle Vorarbeiten bestehen hingegen bei den Aussagen, die nun auf der Grundlage solcher Entitäten formuliert werden können. Diese können erstens (und trivialerweise) natürlich schlicht den Text selbst mit den im Text erwähnten Entitäten verbinden:
Köhler_1984 (viaf:174648806) HAS_SUBJECT Voltaire (viaf:36925746); Candide (viaf:176620251); Genf (tgn:7007279)
Darauf aufbauend ist die zentrale Frage aber nun, wie der Textinhalt formalisiert werden kann. Diese Frage rührt bis an das Grundverständnis einer gegebenen Disziplin, denn es geht darum festzulegen, welche Art von Aussagen [Wikidata, GND] eine wissenschaftliche Fachcommunity nun jeweils als so grundlegend für eine bestimmte Domäne erachtet, dass sie für sie einen Aussagentyp formalisiert. Im obigen Beispiel sind eine Reihe von Aussagen [Wikidata, GND] enthalten, die hier in Frage kämen und die hier pseudo-formalisiert genannt werden:
- Voltaire (viaf:36925746) IS_CREATOR_OF Candide (viaf:176620251)
- Candide (viaf:176620251) HAS_PUBLICATION_DATE 1759
- Candide (viaf:176620251) HAS_PUBLICATION_LOCATION Genf (tgn:7007279)
- Candide (viaf:176620251) HAS_RECEPTION_INTENSITY high
- Candide (viaf:176620251) HAS_RECEPTION_TIME immediate;long-term
- Candide (viaf:176620251) HAS_LEGAL_STATUS censored (1759)
Dabei sind die ersten drei Aussagen [Wikidata, GND] nicht viel mehr als bibliografische Metadaten, wie man sie auch in einem Katalog oder einer Sachbibliografie [Wikidata, GND] finden könnte (und wie sie in unserem Fall bereits vorliegen). Für einen Teil dieser Aussagetypen, insbesondere wenn es sich um prosopografische und bibliografische Informationen handelt, kann man entsprechend für die Formalisierung auf vorhandene Ontologien [Wikidata, GND] zurückgreifen, zum Beispiel auf Dublin Core (für creator, publisher, date, title, subject) oder die SPAR Ontologies (für die weiterführende bibliografische Modellierung).23 Für die darauf folgenden Aussagen gilt dies aber nicht. Die zentrale Frage ist demnach, wie eine Ontologie [Wikidata, GND] zentraler Aussagetypen für eine bestimmte wissenschaftliche Domäne (hier: die Literaturgeschichte [Wikidata, GND] als Teil der Literaturwissenschaften) gestaltet sein sollte und wie ein Konsens zu diesen Themen in der Community [Wikidata, GND] hergestellt werden kann. Welche domänenspezifischen (und das heißt hier: genuin literaturhistorischen) Informationen sollten als basale Statements formuliert werden können?
Vergleichsweise unstrittig dürften, ähnlich wie die bereits erwähnten, grundlegenden bibliografischen Aussagen, etablierte prosopografische Informationen sein, wie man sie beispielsweise in Wikidata findet:
- (Person) DATE_OF_BIRTH (Datum); DATE_OF_DEATH (Datum)
- (Person) OCCUPATION (Berufsbezeichnung)
- (Person) RELIGION (Religionsbezeichnung)
- (Person) MOVEMENT (Ideologie, Weltanschauung, Bewegung)
Etwas stärker domänenspezifische Aussagen, wie sie bislang zwar nicht offiziell im Rahmen einer Ontologie standardisiert sind, aber beispielsweise in Wikidata praktiziert werden, sind die folgenden:24
- (Person) INFLUENCED_BY (Person)
- (Person) AWARD_RECEIVED (Auszeichnung)
- (Werk) GENRE (Gattung)
- (Werk) CHARACTERS (Figurennamen)
- (Werk) NARRATIVE_LOCATION (Geografischer Ort)
- (Werk) SET_IN_PERIOD (Zeitspanne)
- (Werk) DERIVATIVE_WORK (Werk)
- (Werk) INSPIRED_BY (Werk)
- (Werk) NARRATOR (Figurennamen)
Hier beginnt deutlich zu werden, dass eine systematische Auseinandersetzung mit dieser Art von Aussagen in Form einer Ontologie [Wikidata, GND] noch aussteht. So stehen beispielsweise „RELIGION“ und „MOVEMENT“ in einer unklaren Beziehung oder gibt es auf der Personenebene „INFLUENCED_BY“ und auf der Werkebene „INSPIRED_BY“. Für manche Aspekte könnten vorhandene Taxonomien [Wikidata, GND] oder Ontologien [Wikidata, GND] nachgenutzt werden, wie beispielsweise im Bereich der (historischen und aktuellen) Berufsbezeichnungen;25 für andere Aspekte, wie (literarische) Gattungen, Epochen, Formen oder Themen gibt es keine vergleichbar formalisierten und konsensuellen Ressourcen. Und natürlich sind die in Wikidata bisher verwendeten Prädikate keineswegs ausreichend für eine literaturhistorisch adäquate Beschreibung literarischer Werke, Autor*innen und Epochen. Nur in Bezug auf literarische Werke selbst wären beispielsweise folgende weitere Sachinformationen relevant:
- (Werk) HAS_FORM (Prosa|Vers|Anderes)
- (Werk) HAS_NARRATIVE_PERSPECTIVE (autodiegetisch|homodiegetisch|heterodiegetisch) – Erzählform bei narrativen Werken
- (Werk) HAS_DIALOGUE_PROPORTION (Prozentsatz) – Anteil der direkten Rede in einem narrativen Werk, in Prozent der Wörter oder Sätze
- (Werk) HAS_STAGE_DIRECTIONS (Prozentsatz) – Anteil der Bühnenanweisungen in einem dramatischen Werk, in Prozent der Wörter.
Dies ist selbstverständlich nicht einmal in Ansätzen eine abschließende Auflistung; eine systematische Modellierung [Wikidata, GND] der Domäne steht noch aus. Zu ergänzen ist in diesem Zusammenhang allerdings noch, dass die jeweils erhobenen oder extrahierten Informationen nicht als Fakten, sondern als Aussagen [Wikidata, GND] aufgefasst werden: insofern jedes Statement [Wikidata, GND] einer Quelle zugeordnet ist, repräsentiert es die Meinung einer Fachwissenschaftlerin oder eines Fachwissenschaftlers beziehungsweise den Stand der Forschung zum Zeitpunkt der Publikation. Folglich kann ein Informationssystem [Wikidata, GND], das große Mengen solcher Aussagen versammelt, auch sich gegenseitig widersprechende oder anderweitig inkompatible Aussage beinhalten, ohne dass der Bestand des Systems deswegen als inkonsistent gelten müsste.
Im derzeit laufenden Projekt Mining and Modeling Text (MiMoText) geht es zwar nur indirekt um die Frage, wie wissenschaftliche Publikationen [Wikidata, GND] zukünftig erschlossen werden sollten. Zentral ist hingegen das Ziel, in einem Korpus bestehender (insbesondere auch älterer, überblickshafter) Fachliteratur [Wikidata, GND] dem skizzierten Ansatz folgend und weitgehend automatisch ein bestimmtes Inventar literaturhistorischer [Wikidata, GND] Aussagetypen zu identifizieren und semantisch [Wikidata, GND] zu modellieren [Wikidata, GND]. Auch ältere Literaturgeschichtsschreibung [Wikidata, GND] soll wieder sichtbar und in großem Umfang nutzbar gemacht werden, indem sie als Linked Open Data [Wikidata, GND] unter Verwendung von domänenspezifischen Ontologien [Wikidata, GND] modelliert [Wikidata, GND] und publiziert wird. Zudem sollen auf diese Weise auch über selten gelesene Romane Informationen ermittelt werden und in das so entstehende, literaturhistorische [Wikidata, GND] Informationssystem [Wikidata, GND] einfließen. Auf diese Weise entsteht, eine ausreichend umfangreiche Menge semantisch erschlossener Fachliteratur [Wikidata, GND] vorausgesetzt, ein literaturhistorisches [Wikidata, GND] Informationssystem [Wikidata, GND], das eine Reihe von Anwendungsszenarien unterstützt. Beispielsweise wird es so möglich, die Rezeptionsgeschichte einer bestimmten Autorin nicht nur quantitativ zu ermitteln (beispielsweise über die Anzahl der relevanten Publikationen pro Jahr), sondern auch inhaltlich nachzuvollziehen, indem Entwicklungen in den jeweils angesprochenen Themen, in den Bewertungstendenzen oder den jeweils mobilisierten Vergleichsautor*innen analysiert werden. Ebenso wird es möglich sein, auf der Grundlage der im System enthaltenen (inhaltlichen, stilistischen, bewertenden, einordnenden usw.) Aussagen [Wikidata, GND] literarische Werke zu identifizieren, die den jeweils gewählten Kriterien zufolge Gemeinsamkeiten haben und sich so für weiterführende, vergleichende Analysen eignen könnten.
Diese Form der recht aufwendigen, retrospektiven semantischen Erschließung würde zukünftig überflüssig, wenn neu publizierte Fachliteratur [Wikidata, GND] ihre wesentlichen Aussagen eben bereits in Form von Linked Open Data [Wikidata, GND] mitveröffentlichte. Sei es, dass die Identifikation der relevanten Entitäten und das Formulieren der entsprechenden Aussagen von den Autor*innen selbst geleistet werden oder dass Verfahren entwickelt werden, die dies automatisch auf Grundlage des Volltextes bewerkstelligen.26 Für die Zukunft wäre eine größere Präzision (bei gleichzeitig geringerer Abdeckung) zu erwarten, wenn sich eine entsprechende Praktik beim Verfassen von wissenschaftlichen Publikationen [Wikidata, GND] etablieren würde, ähnlich wie es derzeit üblich ist, beim Einreichen von Artikeln oder Kapiteln auch eine Reihe von Schlagworten anzugeben beziehungsweise Begriffe aus einer fachwissenschaftlichen Ontologie auszuwählen. Bis dahin ist es allerdings noch ein weiter Weg und zukünftige wissenschaftliche Publikationsweisen und die retrospektive Erschließung der Fachgeschichte bleiben voneinander nicht unberührt: Einerseits entstehen durch eine zeitgemäße Praktik der semantischen Annotation wissenschaftlicher Publikationen [Wikidata, GND] in Kombination mit dem Volltext auch Trainingsdaten für das Entwickeln automatischer Verfahren. Andererseits kann die retrospektive Erschließung auch dazu beitragen, Anforderungen an zukünftige semantische [Wikidata, GND] Annotationsverfahren wissenschaftlicher Publikationen [Wikidata, GND] und an zugrunde liegende, domänenspezifische Ontologien [Wikidata, GND] zu präzisieren.
Die Vision des Verfassers ist jedenfalls, dass wir in naher Zukunft Forschungsergebnisse nicht mehr nur in natürlichsprachiger Prosa formulieren und als PDF-Dateien publizierte Artikel oder Bücher produzieren, verbreiten und rezipieren, und dass diese Prosa auch nicht unverbunden mit der dazugehörigen Publikation von Datensätzen und dem Programmiercode erfolgt. Vielmehr wird dieser Prosatext mit relevantem Code und Datensätzen verbunden, mit reichhaltigen Metadaten versehen, in seiner Textstruktur ausgezeichnet, unter Verwendung strukturierter bibliografischer Daten mit Entitäten und Konzepten annotiert und in Form von LOD-Statements zusammengefasst publiziert werden. Dass der in natürlichsprachiger Prosa ausformulierte Fließtext dadurch obsolet wird, soll nicht behaupten werden; aber der Fließtext wird in Zukunft nicht mehr allein stehen, sondern eingebettet sein in einen reichhaltigen, maschinenlesbaren Kontext von Daten, Code, Metadaten, Zitationsdaten und modellierten Aussagen.27
ORCID®
Christof Schöch https://orcid.org/0000-0002-4557-2753
Praxis
The Museum Scholarly Catalogue in the Internet Age
In 2009, the Getty Foundation launched the Online Scholarly Catalogue Initiative (OSCI). The ten-year anniversary of this initiative provides an apt moment for reflection, further underscored by the recent release of Digital Catalogues Study, a cross-institutional user study of online museum collection catalogues. What has been learned, to date, through efforts to publish museum collection catalogues online [Wikidata, GND]? What challenges remain? Can we predict future directions?
The Getty Foundation, one of four programs of the J. Paul Getty Trust, serves as the philanthropic arm of the Trust with a mission to “support institutions and individuals committed to advancing the greater understanding and preservation of the visual arts in Los Angeles and throughout the world.”1 At the time the Getty Foundation initiated OSCI, it had adopted the methodology of strategic grantmaking. In consultation with experts from around the world and across the fields the Getty serves, the Foundation staff identify critically important problems to solve and then work with partners through grantmaking to solve those problems. Grant recipients are encouraged to share lessons learned and to produce outcomes that can serve as models for the work of others.
The Online Scholarly Catalogue Initiative set out to solve the problem of the future of the museum collection catalogue. The permanent collection catalogue is a well-established genre; such catalogues traditionally include core information about the museum’s objects as well as scholarly essays. But, in print form, such catalogues are expensive to produce and become quickly out-of-date as soon as the museum acquires a new object or new information or analyses of an object come to light. The internet and new opportunities in digital publishing [Wikidata, GND] seemed to offer an answer.
While this may seem quite prescient today, it is worth remembering that in 2009 we were in very early days of digital publishing [Wikidata, GND]. A future in which we use our cell phones as a source of reading material had not yet materialized. As Greg Albers, Digital Publications Manager with Getty Publications, recently recalled, the turning point in digital publishing was the release of Amazon’s Kindle in 2007, which helped raise awareness of the possibilities of digital publishing [Wikidata, GND] beyond the circles of business and technology.2 The iPad was released for sale in the United States in 2010, further pushing digital publishing [Wikidata, GND] into the mainstream.
Art museums were just beginning to grasp the implications of this new landscape and the rising expectation that content should be easily discoverable online. Not until 2012 did the Rijksmuseum make the unprecedented move of placing 125,000 digital surrogates of Dutch masterpieces online in high resolution. In sum, in 2009, when OSCI began, digital publishing [Wikidata, GND] was just coming into its own as publishers began to realize that online content could be much more than a static document and could take advantage of the interactive affordances of the digital environment.
Launched by the Getty Foundation with help from colleagues at the J. Paul Getty Museum, OSCI supported online scholarly catalogues developed by eight grantees: the Art Institute of Chicago, the Arthur M. Sackler and Freer Gallery of Art, the Los Angeles County Museum of Art, the National Gallery of Art in Washington, D.C., the San Francisco Museum of Modern Art, the Seattle Art Museum, Tate, and the Walker Art Center. These were all institutions ready to make an ongoing commitment to digital technology and infrastructure as well as to rethinking workflows and the roles and responsibilities involved in such workflows, including the positions of museum registrars and book editors.3
Embarking on this endeavor meant facing many challenges unique to publishing collection catalogues in the modern information age. The practice of publishing museum collection catalogues had emerged alongside the formation of museums. In 1836, for example, the National Gallery of Art in London, first established in 1824, issued a two volume illustrated catalogue of their collection that included many of the features we associate with this genre today: each work of art was illustrated and each entry typically included information about the artist as well as a description of the work of art (and in some cases even a critical assessment of the quality of the work), its medium and dimensions, and who had presented it to the gallery. The aim was to provide readers with “an entertaining and instructive Book [and] a select Picture Gallery.”4 By the dawn of the twenty-first century, most art museums had turned to electronic information management systems to house core information about their objects, such as medium, dimensions, and provenance. This information, what we might also describe as metadata [Wikidata, GND] (data about data), is typically well researched and regarded as authoritative. While the production of such metadata [Wikidata, GND] is often done incrementally and collaboratively, it is essential that institutions do their best to mitigate against the flourishing of multiple and/or competing versions of metadata [Wikidata, GND]. 5 Having a single database of record and always using this database as a source of information about the collection is a simple solution to this problem.
Therefore, when beginning to conceptualize the workflow for publishing an electronic museum collection catalogue, the museums participating in OSCI recognized that it was desirable to draw on authoritative metadata [Wikidata, GND] information already housed in existing museum information systems. These systems, though, were never designed to be publishing platforms. The same was true of digital asset management systems, where the digitized surrogates of the works of art were typically stored. There was also the matter of the scholarly essays, which might be part of a publication ecosystem, but were not often stored long-term in museum information systems. And what of original source materials found in libraries and archives that might be desirable to include? Or technical analyses housed in the labs and information systems of conservation studios? Even before new research could be conducted, the question of how best to harness together information already in electronic form and the infrastructure by which to do so had to be confronted.
In short, to publish a museum collection online meant connecting systems that were not originally conceived to be interoperable nor designed to support publishing collection catalogues digitally. Being able to pull authoritative and accurate information from these systems -- that is, solving the problem of integration -- emerged as a leading requirement for the endeavor.6 Audience research helped to identify another important stipulation: persistence. Readers needed to know that these catalogues were just as permanent as print catalogues and, moreover, that they could be appropriately cited and referenced. While the latter requirement might have been satisfied by the portable document format (PDF), the participating teams ambitiously wanted to take advantage of new technologies made feasible in the digital environment in order to create an enhanced experience for their readers. These included the ability to deliver zoomable high-resolution images, to compare images, and to include multi-media content as well as superior search functions. But remember, in 2009 none of this had been done before by these institutions.
To proceed, the projects were divided between a research and development phase and an implementation phase, which encouraged addressing technical issues immediately rather than at the end of the project. In other words, the grant initiative was designed to push against or disrupt the traditional linear workflow of publishing that focuses first on the production of content and then delivery of that content to the publishing platform. Instead, the teams were encouraged to work iteratively so that content development went hand-in-hand with identifying and then solving technical requirements. This new way of working was supported by periodic convenings, organized by the Foundation, which brought key team members together for collaborative sessions that allowed the grantees to learn from one and other as well as experts in the field.
An interim report, published by the Foundation in 2012, surfaced both exciting opportunities and challenges facing the projects at this halfway point in their genesis. A key benefit of publishing museum collection catalogues digitally, the participants quickly discovered, was the broad range of visual and textual materials that could be included as well as the variety of means by which readers could engage with the catalogue, for example, by creating their own study collections. In imagining potential readers, in part through rigorous user research, museum staff began to realize that digital publishing allowed them to expand their outreach greatly since these catalogues, all freely available, could reach anyone with a computer and an internet connection. But, of course, a collection catalogue cannot contain everything and readers do not want to face a deluge of information, so the participating teams also recognized that they needed to make judicious choices. Institutions also had to grapple with copyright issues well before the open access movement had gained strength. As already suggested, the technical infrastructure required to support digital publishing did not yet exist. Creating this infrastructure entailed new staff positions as well as modifying and adapting workflows in response to the shift from linear to iterative project management.
The final report on the initiative, issued by the Getty Foundation in 2017, consolidated the lessons learned over the course of the planning and implementation phases, including choosing technology wisely, effective design with particular attention to navigation, finding ways to serve multiple audiences, and having the right people and structures in place. One of the most critical findings was “Make Sure your Content is Ready”, which translates to starting with clean data and using consistent metadata [Wikidata, GND] standards and controlled vocabularies shared across the institution, from the curatorial and scientific to the digital media department. This is a significant endeavor if these subdivisions of the museums customarily had autonomy regarding metadata [Wikidata, GND] But the investment in clean and reconciled data is both necessary and essential in order to move it through the tripartite process required of publishing catalogues online, beginning with the museum collection databases, then moving to a content management system that could unite that data with the scholarly essays, digital surrogates, multimedia files and other materials referred to in the catalogue, and then finally publishing the content on the web .
This final report also surfaced one of the most persistent issues regarding digital publishing – sustainability. Once a museum finishes a print catalogue, its long-term care is the principal concern of its owner, whether it be an individual or a library. But once a museum finishes a digital catalogue, it remains the principal concern of the museum, particularly if there are expectations that the catalogue will be updated over time. Museum publishers, the final report cautions, must “be deliberate about version control” in light of potential updates. They must also address access and long-term preservation, and, most of all, leverage the investment made in producing a single volume so that systems and tools are re-usable for the production of subsequent volumes, and content is stored in such a way that it can be re-purposed for such enterprises as in-gallery interpretations .7 The ultimate goal was for each institution to develop a pipeline for continuing to publish online, rather than producing one-off experiments. To date, for example, the Art Institute of Chicago has published fourteen online scholarly catalogues, the National Gallery of Art six catalogues, and the Walker Art Center produced three volumes of their Living Collections Catalogue.
Scholarly reviews of these catalogues have recognized not only the value of the rigorous research they contain, but also the affordances of the digital environment [Wikidata, GND]. In the case of the Seattle Museum of Art (SAM), for example, their catalogue of Chinese Painting & Calligraphy included a class of objects for which the museum had not yet secured attribution or were generally considered of lesser significance – works that might have been omitted from a print catalogue. As curator Kevin McLoughlin notes, this “represents an innovative choice by SAM- one that is counter to conventional museum practice [… and] is a bold and welcome decision, clearly made possible by the online nature of the catalogue, and in line with SAM’s intention to use the site as an open-ended portal to the collection.”8 With respect to the Art Institute of Chicago’s catalogues dedicated to Claude Monet and Auguste Renoir, librarian Kimberley Henze applauds how the catalogue gives readers immediate access to scholarly research “through the shared experience of the raw archival and conservation materials” as well as the “interactivity and high-resolution quality of the images.”9 The online environment can be conducive to helping to reconstruct the former contexts of works of art, as Brinda Kumar observes with respect to the Los Angeles County Museum of Art’s online catalogue of Southeast Asian art.10 A particular challenge in publishing online museum catalogues, as art historian Pamela Fletcher astutely discerns, “is harnessing the power of the digital format to facilitate connections and allow for user-directed investigation, while also providing the clear coherent sense of the whole—and the relation of the parts to the whole—conveyed by traditional print formats,” a challenge effectively met by the Tate’s research publication The Camden Town in Context.11 Scholar Anne Higonnet, reviewing the Art Institute of Chicago’s online catalogue of Gustave Caillebotte’s paintings and drawings, persuasively argues that such online catalogues “change how we interpret the form of art.”12
Yet, while the overall goals of the initiative were met, there were some surprises along the way. To address the technological challenges, many participants initially expressed a desire for a single, shared software solution . But, over time, it became apparent that technological solutions need to work within the specific and frequently unique ecosystems of each institution, so that it was not possible to produce a specific software solution or a single model for the field . Another surprise concerned user behavior. When the San Francisco Museum of Modern Art and the Walker Art Center undertook user studies, they learned that seventy-five percent of their catalogue readers did not enter the catalogue through its home page.13 Museum director Anne Goodyear, in her overview of the initiative, noted the tendency of users to migrate from online catalogues to other sections of the website, making it difficult to articulate the boundaries of the catalogue and also dismantling expectations of a single, unified whole that readers may bring from their experience of printed catalogues.14
Looking ahead, many art museums are now moving towards breadth rather than depth in the online presence of their collections, or, perhaps more accurately, moving towards making collections equally accessible rather than bundling content into discrete units. This trend raises the question, once the catalogue is unbound from the constraints of the printed page and moved to the web, what does it refer to? Is there an essential difference between an “online catalogue” and “collections online”? The OSCI enterprise, for Anne Goodyear, “raises the very question of what a catalogue can represent.”15
In assessing the field, the recently commissioned report Digital Catalogues Study chose to focus only on those catalogues that were integrated with museums’ online collection pages, suggesting that this is the most likely avenue forward.16 One of the key findings of this report is that forty percent of users came to the respective online catalogues to research a particular object, a result that may further encourage museums to shift away from conceiving the online catalogue as a discrete entity.
Yet, such a shift will render even more complex the issue of discoverability. Both the OSCI final report and the Digital Catalogues Study point to the challenges website users faced in finding the catalogues, whether through search engines or commonly used academic databases.17 Furthermore, users still express a desire “that digital catalogues exhibit cohesion in their style of writing” and “value […] having an interpretative narrative to tie the catalogue together, rather than the entries being presented merely as a list of items” as well as analyses, authored by respected experts, for each artwork entry.18 To address such needs, clearly marked pathways must be established between digital catalogues and their “parent museums’ websites.”19 The pressure for effectively signposted navigation and thoughtful articulation of the integrity of the catalogue will only become more intense if museum publishers chose to pursue linking online catalogues to “content anywhere else on the web” and allowing users to “add their information,” suggestions of future possibilities offered up by focus group participants in the Digital Catalogues Study.20
While the future look and feel of online scholarly collection catalogues is still in flux, and concrete problems remain to be solved in publishing museum catalogues online, it is clear that this mode of disseminating scholarship has become accepted by the field and judged successful, as registered by both user statistics and peer reviews [Wikidata, GND]. The Digital Catalogues Study succinctly summarizes the current state of the field: online catalogues “are attracting a large and diverse user base” and “previous concerns about the value or permanence of online resources are fading.”21 In the ten years that have elapsed since the launch of OSCI, digital publishing [Wikidata, GND] has become increasingly accepted and expected.
ORCID®
Anne Helmreich https://orcid.org/0000-0003-3026-988X
Modelle des Open-Access-Publizierens an der Universitätsbibliothek der LMU München
Wissenschaftliche Inhalte, insbesondere im Bereich der Naturwissenschaften, wurden in den letzten beiden Jahrzehnten zunehmend via Open Access [Wikidata, GND] in Zeitschriften [Wikidata, GND] publiziert. Seit einigen Jahren wird aber auch für die Geisteswissenschaften [Wikidata, GND] gefordert, für die Eintrittskarte in die wissenschaftliche Karriere, nämlich die Dissertation, ebenfalls Open-Access-Angebote zu entwickeln, die an Attraktivität nicht hinter den herkömmlichen gedruckten Medien zurückstehen. Die Initiativen im Bereich der Open-Access-Books werden zudem als Chance gesehen, um der sinkenden Aufmerksamkeit für gedruckte Medien entgegenzuwirken.1
An der Universitätsbibliothek der Ludwig-Maximilians-Universität, München, (LMU) besteht seit 2002 die Möglichkeit, Dissertationen elektronisch auf dem Repositorium Elektronische Hochschulschriften der LMU zu veröffentlichen. Dieses fächerübergreifende Angebot scheint jedoch den Anforderungen des Publizierens in den Geisteswissenschaften [Wikidata, GND] nicht ausreichend zu genügen – zumindest machen die Geisteswissenschaften und Sozialwissenschaften nur fünf Prozent der elektronischen Publikationen auf diesem Repositorium aus und die Fakultät für Geschichts- und Kunstwissenschaften sogar nur ein Prozent.2 Möglicherweise ist eine elektronische Veröffentlichung auf einem fächerübergreifenden institutionellen Repositorium für Geisteswissenschaftler nicht hinreichend attraktiv, um nach mindestens drei Jahren Promotion seine Dissertation karrierefördernd zu veröffentlichen.
Vor diesem Hintergrund sind seit 2015 parallel einige Angebote entstanden, die die Akzeptanz des Open-Access-Prinzips [Wikidata, GND] in den Geisteswissenschaften [Wikidata, GND] deutlich stärken sollen. Zum einen können Dissertationen in der Schriftenreihe Dissertationen der LMU hybrid veröffentlicht werden – zusätzlich zur Open-Access-Online-Veröffentlichung online im PDF-Format wird in Kooperation mit Readbox Unipress eine gedruckte Print-On-Demand-Version über den (Online-)Buchhandel vertrieben.3 Die Veröffentlichungskosten sind für die Autoren vergleichsweise gering und die Publikationspflicht wird durch die Open-Access-Version [Wikidata, GND] auf dem Repositorium erfüllt. Die Schriftenreihe ist offen für alle Fächer, allerdings zeigt sich seit dem Start, dass 30 der 33 bereits veröffentlichten oder noch geplanten Publikationen aus den geisteswissenschaftlichen [Wikidata, GND] Fakultäten stammen: Das Angebot scheint dem Bedarf der Geisteswissenschaftler nach Fortsetzung ihrer Publikationsgewohnheiten mit einem gedruckten Exemplar entgegenzukommen. Ein vergleichbares Angebot für LMU-Wissenschaftler (Post-Doktoranden usw.) läuft unter dem Namen Open Publishing LMU und kann Tagungsbände und Monografien aufnehmen. In Kooperation mit der Universität zu Köln und auf Initiative des dortigen Lehrstuhls für Frühe Neuzeit hat die LMU-Hochschulleitung von 2015 bis 2019 ein Pilotprojekt mitfinanziert, Modern Academic Publishing (MAP), das eine hybride Publikationsmöglichkeit für Dissertationen, Open Access [Wikidata, GND] und gedruckt, für hervorragende Absolventen in den Geisteswissenschaften [Wikidata, GND] beider Universitäten anbot.4
Als Nachfolgeprojekt zu MAP ist an der Universitätsbibliothek der LMU im April 2019 mit der Open-Access-Reihe [Wikidata, GND] Open Publishing in the Humanities (OPH) ein neues Publikationsprojekt gestartet. Unter der Leitung von Hubertus Kohle [Wikidata, GND] und Thomas Krefeld als Mitherausgeber der Reihe wendet sich das Angebot an herausragende, forschungsstarke Doktorandinnen und Doktoranden der Geistes- und Sozialwissenschaften an der LMU ‒ ermöglicht durch eine Förderung des Bayerischen Staatsministeriums für Wissenschaft und Kunst.
Im Folgenden werden diese Projekte zur Förderung von Open-Access-Monografien im Spektrum der sonstigen Open-Access-Aktivitäten [Wikidata, GND] des Referats „Elektronisches Publizieren“ an der UB der LMU eingeordnet und die Bedürfnisse der Wissenschaftler (Autoren und Rezipienten) analysiert. Als Leitfrage soll untersucht werden, inwieweit der goldene Weg des Open Access [Wikidata, GND] [] – die genuin elektronische Publikation – auch für den „Goldstandard“ der Geisteswissenschaftler [Wikidata, GND], die Monografie, die am Start der wissenschaftlichen Karriere einen wichtigen Meilenstein darstellt, geeignet ist.
Im Bereich der Zeitschriften [Wikidata, GND] handelt die UB mithilfe von Rahmenverträgen oder durch Mitgliedschaften mit einigen Verlagen Preisnachlässe bei den Publikationsgebühren ( Article Processing Charges, APC) für die Publikation von Open-Access-Artikeln [Wikidata, GND] in Zeitschriften [Wikidata, GND] (Hybrid-Zeitschriften und Gold-Open-Access-Zeitschriften [Wikidata, GND]) aus, von denen LMU-Wissenschaftler profitieren können.5 Für Kunsthistoriker sind dies beispielsweise das Renaissance Quarterly von Cambridge University Press, das European History Quarterly (SAGE Publishing Ltd) und durch den seit Oktober 2019 bestätigten DEAL-Vertragsabschluss zwischen der LMU und Wiley, die Zeitschriften [Wikidata, GND] The Art Book, Art History, The Journal of Aesthetics and Art Criticism und Renaissance Studies.6
Darüber hinaus bietet das Referat „Elektronisches Publizieren“ Unterstützung an, wenn Herausgeber ihre Zeitschrift [Wikidata, GND] in Open Access [Wikidata, GND] transformieren oder eine Zeitschrift neu gründen wollen. Die UB setzt dafür die Software Open Journal Systems (OJS) [Wikidata, GND] ein, die vom Public Knowledge Project entwickelt wurde.7 Das Hosting der Zeitschrift [Wikidata, GND] und die Datensicherung [Wikidata, GND] liegt in den Händen der UB, während die Betreuung der redaktionellen Abläufe Aufgabe der Herausgeber und Redakteure der Zeitschrift [Wikidata, GND] ist. Die Zeitschriften-Redakteure werden in die Nutzung des OJS-Publikationsworkflows [Wikidata, GND] eingeführt und erhalten Hilfestellung zur Anpassung des Layouts und des Redaktionssystems. Bereits online und für Theaterwissenschaftler wie auch für Kunstwissenschaftler von Interesse ist das Journal of Global Theatre History.8 Für das Rachel Carson Center for Environment and Society wird die Zeitschrift [Wikidata, GND] Arcadia ‒ Explorations in Environmental History derzeit in ein OJS-Journal [Wikidata, GND] umgewandelt.9
Einige Hochschulen haben sich für die Einrichtung von Open-Access-Publikationsfonds [Wikidata, GND] zur Entlastung der Autoren bei den APC, den Gebühren, entschieden. Im Rahmen ihres Förderprogramms Open-Access-Publizieren [Wikidata, GND] finanziert die DFG seit 2010 die Etablierung solcher Publikationsfonds mit. In letzter Zeit sind auch einige Open-Access-Publikationsfonds für die Förderung von Book Processing Charges (BPC) bei Monografien als Parallelangebot für die Geisteswissenschaftler [Wikidata, GND] hinzugekommen.10 Dieser Weg zur Unterstützung der Publikationspraktiken der Wissenschaftler existiert an der LMU jedoch nicht.
Betrachtet man die Veröffentlichungsmodi von Dissertationen an der LMU für das Jahr 2017, so wurden für alle Fächer 68,6 Prozent ausschließlich elektronisch oder hybrid digital (Kombination von gedruckt und digital) im Open Access [Wikidata, GND] veröffentlicht, während 16,8 Prozent ausschließlich gedruckt in einem Verlag erschienen sind.11 Allerdings sind die Naturwissenschaften – mit der teilweisen Verpflichtung zur elektronischen Publikation in ihren Promotionsordnungen – maßgeblich dafür verantwortlich, dass der durchschnittliche Anteil an elektronischen Dissertationen bei fast 70 Prozent liegt. Der Anteil der Fakultät für Geschichts- und Kunstwissenschaften liegt dagegen bei nur ca. 21 Prozent. Fokussiert man auf die Dissertationen, die ausschließlich mit einer gedruckten Verlagspublikation veröffentlicht wurden, so ergeben sich, ebenfalls für das Jahr 2017, 67 Prozent für die Fakultät für Geschichts- und Kunstwissenschaften. Damit ist das Muster nahezu spiegelbildlich umgekehrt: 67 Prozent Verlagspublikationen für die Fakultät für Geschichts- und Kunstwissenschaften stehen 68 Prozent an digitalen Publikationen für alle Fächer gegenüber. Selbst wenn die Vorgaben der Promotionsordnungen hierauf einen starken Einfluss haben, so bleibt doch zu konstatieren, dass das gedruckte Buch im geisteswissenschaftlichen [Wikidata, GND] Betrieb weiterhin einen wichtigen Stellenwert hat. Auch das Rezensionswesen [Wikidata, GND] ist vornehmlich über gedruckte Exemplare organisiert und bei Berufungsverfahren spielt das gedruckte Medium nach wie vor eine wichtige Rolle.
Über die Wahrnehmung der elektronischen Publikation als vermeintlich weniger repräsentative und qualitätsvolle Publikationsform für Geistes- und Sozialwissenschaftler wird im Zusammenhang mit den Klagen über den nachlassenden Dienstleistungsumfang der herkömmlichen Wissenschaftsverlage nachgedacht.12
Vergleicht man die Entscheidung der Absolventen des Jahres 2017 in den geistes- und sozialwissenschaftlichen Fakultäten für eine Verlagspublikation oder für eine digitale Publikation in Abhängigkeit von der Note, fällt auf, dass das Verhältnis der Verlagspublikationen und der digitalen Publikationen bei den Prädikaten summa cum laude und magna cum laude ungefähr gleich ist – nämlich zwei Verlagspublikationen zu einer digitalen Publikation (Abb. 1). Die Annahme, dass für qualitativ hochwertigere Arbeiten eine Verlagspublikation bevorzugt wird, lässt sich also nicht bestätigen.
Ein häufig geäußerter Vorbehalt gegenüber der Gold-Open-Access-Publikation [Wikidata, GND] von Monografien seitens der Wissenschaftsverlage, die Open-Access-Angebote [Wikidata, GND] zu einem beachtlichen Preis in ihr Dienstleistungsspektrum aufnehmen, betrifft die Absatzchancen der gedruckten Parallelveröffentlichung: Es wird befürchtet, dass die gedruckte Publikation aufgrund der freien und sofortigen Verfügbarkeit der Online-Version wenig Absatz findet. Für das abgeschlossene MAP-Projekt lässt sich feststellen, dass physische Exemplare der MAP-Titel in Bibliotheken durchaus vorhanden sind.13 Förderlich für die Downloadzahlen der MAP-Publikationen war die Aufnahme der Titel in die Discovery-Repositories [Wikidata, GND], OAPEN Library [Wikidata, GND] und Directory of Open Access Books (DOAB).
Die Publikationsinitiative MAP und die neue Reihe Open Publishing in the Humanities vereint der gleiche Ansatz einer Nachwuchsförderung hervorragender Absolventen – ausschließlich Geisteswissenschaftler [Wikidata, GND] im Fall von MAP, sowohl Geistes- als auch Sozialwissenschaftler [Wikidata, GND] im Fall von OPH. Es geht darum, Anreize für die Wahl des Open-Access-Publikationsmodus’ [Wikidata, GND] unter den forschungsorientierten Nachwuchswissenschaftlern zu schaffen, wobei der Schwerpunkt auf der digitalen Version für die Verbreitung der Forschungsergebnisse [Wikidata, GND] liegt. Die gedruckte Print-on-Demand-Ausgabe bedient die herkömmlichen Lese- und Rezeptionspraktiken im Übergang von den analogen zu den digitalen Publikationspraktiken.
Als wesentliches Qualitätsmerkmal des Publikationsangebots werden die ausgewählten Dissertationen professionell lektoriert. Die Autoren werden ermutigt, ihre Forschungsdaten [Wikidata, GND] parallel zu veröffentlichen und erhalten Unterstützung bei der Klärung von Bildrechten. Bei OPH erfolgt der professionelle Satz der Druckdatei und der Download-PDF-Datei durch eine Buchgrafikerin der UB der LMU. Zwei Buchformate stehen zur Auswahl, sodass gerade Kunsthistoriker mit ihrem höheren Anteil an Abbildungen günstige Publikationsbedingungen vorfinden. Die neue Schriftenreihe hat einen eigenen Webauftritt mithilfe von Open Monograph Press [Wikidata, GND] des Public Knowledge Projects.14 Im Vergleich zu MAP mit drei verschiedenen Online-Formaten (PDF, EPUB und Mobi) beschränkt sich OPH auf die Bereitstellung einer PDF-Datei. In den Download-Zahlen der MAP-Titel hatte sich bereits deutlich gezeigt, dass die Leser PDF-Dateien mit zitierbarer Paginierung bevorzugen. Außerdem werden bei OPH die Nachwuchswissenschaftler im Rahmen eines Autorencoachings bei der optimalen Manuskriptvorbereitung unterstützt und zum akademischen Identitätsmanagement (Stichwort: soziale Medien [Wikidata, GND]) befähigt. Beim Autorencoaching liegt der Fokus neben der Hilfe bei der Manuskriptvorbereitung auf der Zeit nach der Veröffentlichung der Forschungsergebnisse. Vor allem geht es um publikationsbegleitende Maßnahmen, die die Autoren betreiben sollten, um nicht alleine den Suchmaschinen und den Schnittstellen der Discovery- Repositorien (DOAB, OAPEN, BASE) zu überlassen, ob und wie der Volltext ihrer Publikation gefunden und rezipiert wird.
Aus ihrem Fächerumfeld erhalten die Autoren Hinweise zu gelungenen Beispielen von Wissenschaftskommunikation [Wikidata, GND] und werden sensibilisiert für die zentrale Bedeutung der eigenen publikationsbegleitenden Maßnahmen, ob über die Vernetzung bei Fachtagungen [Wikidata, GND], das Veröffentlichen von Blogposts in Wissenschaftsblogs, die Nutzung des Microblogging [Wikidata, GND] via Twitter oder das Anlegen von Profilen in diversen akademischen Netzwerken inklusive der Registrierung auf ORCID.15 In gewisser Weise geht es um eine Verdichtung der Fäden, die zur Publikation führen und um Handreichungen zur Profilierung der Wissenschaftler, die sie befähigen sollen, in ihrem weiteren Werdegang eine ausgewogene Balance zwischen Forschung, der Veröffentlichung ihrer Forschungsergebnisse und ihrer Verbreitung [Wikidata, GND] zu finden.
Die UB der LMU verfolgt nicht nur eine einzelne Strategie, um Open Access [Wikidata, GND] für Geistes- und Sozialwissenschaftler attraktiv zu machen, sondern setzt auf eine Vielfalt an Open-Access-Angeboten [Wikidata, GND]. Nicht nur ein einziger Weg führt zu mehr Open-Access-Inhalten. Open Access sollte nicht als Selbstläufer betrachtet werden: Einmal online bereitgestellt, muss der Inhalt verbreitet [Wikidata, GND] und die Verknüpfung zu den noch laufenden Forschungsaktivitäten des Autors weiter verdichtet werden. Open Access [Wikidata, GND] sollte für Monografien nicht außen vor bleiben. Wir befinden uns weiterhin in einem Übergangszustand von Print zu Digital. Um mehr Open-Access-Monografien zu erreichen, ist es entscheidend, Rücksicht auf die tradierten Rezeptionsstrukturen und das Rezensionswesen [Wikidata, GND] zu nehmen und hybride Publikationen anzubieten. Mit dem hybriden Publikationsmodus erhöht sich auch die Akzeptanz für Open Access [Wikidata, GND]. Mit der Förderung des Open-Access-Publikationsmodus für hochwertige Dissertationen von forschungsstarken Absolventen soll die Akzeptanz von Open Access [Wikidata, GND] als Alternative zu den herkömmlichen Publikationsmodi beschleunigt werden, gerade in den Geistes- und Sozialwissenschaften.
ORCID®
Claudie Paye https://orcid.org/0000-0001-8759-8575
E-Journals in der Kunstgeschichte. Anmerkungen zur Politik des Open Access, neuen Redaktionsaufgaben und Finanzierungsfragen
E-Journals in der Kunstgeschichte, 1999 bis 2019
Über gut zwei Jahrzehnte erstreckt sich mittlerweile die Geschichte digitaler Zeitschriften in den Geistes- und Sozialwissenschaften. So richtete der Centre pour l’édition électronique ouverte (Cléo), eine Initiative französischer Forschungseinrichtungen, darunter der Centre national de la recherche scientifique (CNRS), 1999 eine zentrale Plattform für Online-Journals der geistes-und sozialwissenschaftlichen Fächer ein: Revues.org. Seit 2017 unter dem Namen OpenEdition Journals 1 laufend, hostet die Plattform mittlerweile über 500 (internationale) Online-Zeitschriften, sowohl neu gegründete, originäre E-Journals als auch solche, die seit langem im Druck erscheinen und nun parallel eine Online-Version anbieten (sog. hybride Zeitschriften). Darunter befinden sich knapp 50, die im weitesten Sinne zu den Bereichen Architektur, Urbanistik, Archäologie, Denkmalpflege, Kunstgeschichte oder Bildwissenschaften zählen. Im selben Jahr, 1999, erschien auch auf der anderen Seite des Atlantiks, an der University of Alberta, mit CLCWeb: Comparative Literature and Culture 2 eines der ersten geisteswissenschaftlichen E-Journals im Open Access.
Im Fach Kunstgeschichte gehen die frühesten Gründungen von genuinen Online-Zeitschriften auf das erste Jahrzehnt des 21. Jahrhunderts zurück: Nineteenth-Century Art Worldwide,3 2002 von der Association of Historians of Nineteenth-Century Art (AHNCA, gegründet 1993) ins Leben gerufen, dürfte eine der weltweit ältesten sein. In Deutschland startete Hubertus Kohle mit vier Mitstreitern 2008 ein von der DFG gefördertes E-Journal-Projekt, Kunstgeschichte. Open Peer Reviewed Journal.4 Ende 2009 erschienen die ersten Ausgaben des Journal of Art Historiography,5 getragen vom kunsthistorischen Department der University of Birmingham, Großbritannien, sowie des Journal of Historians of Netherlandish Art,6 herausgegeben von dem gleichnamigen internationalen Verband (HNA, gegründet 1983).
Im folgenden Jahrzehnt stieg die Zahl der digitalen Neugründungen im Fach Kunstgeschichte keineswegs exponentiell. Unter der überschaubaren Anzahl von E-Journals, die eine internationale Autoren- und Leserschaft im Blick haben, finden sich vor allem solche, die aus jungen Forschungsfeldern wie Kunstmarkt- und Provenienzforschung oder digitaler Kunstgeschichte hervorgegangen sind (Beispiele: International Journal for Digital Art History,7 2015; Journal for Art Market Studies,8 2017) oder die von jüngeren Vereinigungen als Medium ins Leben gerufen wurden: Die seit 1998 bestehende International Association of Research Institutes in the History of Art (RIHA) gibt seit 2010 das für Forschungsaufsätze aus allen Bereichen der Kunst- und Bildwissenschaften offene RIHA Journal 9 heraus. Architectural Histories,10 seit 2013 online, ist die Zeitschrift des 2005 gegründeten European Architectural History Network (EAHN). Das von drei internationalen Forscherinnen auf dem Gebiet der Kunst des 18. Jahrhunderts initiierte und 2016 gelaunchte Journal18 11 steht mit dem Verband der Historians of Eighteenth-Century Art and Architecture (HECAA, gegründet 1993) in Verbindung. Die Stedelijk Studies 12 für moderne und zeitgenössische Kunst werden seit 2014 vom Stedelijk Museum Amsterdam in Zusammenarbeit mit sechs niederländischen Universitäten produziert.
Bei der hybriden Publikationsweise bieten Verlage eine Zeitschrift parallel in einer Print- und einer Online-Ausgabe an, sei es zur (individuellen oder institutionellen) Subskription, sei es als Pay-per-View (Beispiele: De Gruyter, Zeitschrift für Kunstgeschichte;13 Taylor & Francis, Art Bulletin;14 Taylor & Francis, Australian and New Zealand Journal of Art 15). Einzelne Aufsätze aber, manchmal auch ganze Hefte werden den Lesern dann wiederum aus Marketinggründen oder bei Zahlung einer Gebühr durch den Autor (Article Processing Charge) sofort im Gold Open Access [Wikidata, GND] zugänglich gemacht.
Zahlreiche Verlage stellen die Online-Ausgaben ihrer Zeitschriften nach einer Embargozeit von einem, zwei oder mehreren Jahren (sogenannte Moving Wall) auf einer Open-Access-Plattform zur Verfügung (sogenannter Delayed Open Access); beim Art Bulletin etwa oder bei der Zeitschrift für Kunstgeschichte befinden sich die jüngsten drei beziehungsweise die jüngsten sechs Jahrgänge hinter der sogenannten Paywall. Auch bei der Retrodigitalisierung von Zeitschriften, die bisher nur im Druck erscheinen, gilt ein Embargo für die jüngsten Hefte. Der Zugriff auf die Plattformen kann völlig kostenfrei sein wie etwa im Falle von arthistoricum.net [Wikidata, GND]16, der Plattform des Fachinformationsdienstes Kunst – Fotografie – Design, die seit 2012 von der Heidelberger Universitätsbibliothek und der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek Dresden (SLUB) betrieben wird. Oder aber die von gemeinnützigen Organisationen oder öffentlichen Einrichtungen getragenen Plattformen (zum Beispiel Jstor,17 seit 1995; DigiZeitschriften,18 seit 2004) sind über institutionelle Lizenznehmer beziehungsweise abgestufte Bezahlmodelle für Privatnutzer zugänglich – gestatten also einen bedingt freien Open Access.19
Im Folgenden seien kurz die wissenschaftspolitischen Rahmenbedingungen für digitale Zeitschriften im Open Access skizziert. Ausgehend von meinen Erfahrungen als wissenschaftliche Redakteurin möchte ich anschließend einige der Unterschiede aufzeigen, die sich bei gedruckten respektive Online-Zeitschriften hinsichtlich der Aufgabenverteilung zwischen Verlag und Redaktion ergeben. Abschließend sei dann die elementare Frage der Finanzierungsmodelle [Wikidata, GND] für geisteswissenschaftliche Open-Access-Zeitschriften angesprochen.
Sofern nicht anders vermerkt, gehe ich also ausschließlich auf die Bedingungen für geisteswissenschaftliche beziehungsweise kunsthistorische E-Journals ein. In Fächern wie Medizin, Informatik, Naturwissenschaften und Technik trifft die Open-Access-Idee auf gänzlich andere Rahmenbedingungen als in den Geistes- und Sozialwissenschaften.20 In die sogenannten STM-Fächer (science, technology, medicine) und die Abonnements ihrer Fachzeitschriften fließen ungleich größere Geldsummen als in die geistes- und sozialwissenschaftlichen Fächer. Liegen die Jahresabonnements von etablierten kunsthistorischen Fachzeitschriften bei circa 75 bis 300 Euro, so muss man in den STM-Fächern mindestens mit dem Zehnfachen rechnen. Während in den STM-Fächern wenige Konzerne (Elsevier, Wiley, Springer Nature, Taylor & Francis und andere) über die Hälfte des Zeitschriftenmarktes weltweit kontrollieren,21 arbeiten im Bereich der Geisteswissenschaften zahlreiche mittelgroße und kleine Verlage. Ferner sind der Aktualitätsdruck und die Halbwertszeit von Forschungsergebnissen in den Naturwissenschaften ganz anders als in den Geisteswissenschaften. Entsprechend haben auf dem STM-Markt tätige Verlage schon lange die für das elektronische Publizieren erforderlichen Strukturen aufgebaut und ihre Angebote weit aufgefächert.22 Beide Sparten, die großen Player im Bereich der STM-Fächer wie die geisteswissenschaftlichen Verlage, versuchen, den in der Folge der Open-Access-Idee drohenden Verlust des jahrhundertelangen Subskriptionsmodells durch die Entwicklung neuer Geschäftsmodelle aufzufangen.
Open Access – die wissenschafts- und gesellschaftspolitische Perspektive
Die in den vergangenen zwei Jahrzehnten erhobene Forderung nach freiem Zugang zu den Ergebnissen von Forschung, die mit öffentlichen Geldern finanziert wurde, resultiert zum einen aus den technischen Möglichkeiten durch die weltweite Digitalisierung [Wikidata, GND]; zum anderen aus der Beobachtung der sogenannten Zeitschriftenkrise:23 Seit den 1990er Jahren haben die marktbeherrschenden Zeitschriftenkonzerne die Subskriptionsgebühren auf dem Gebiet der STM-Fächer kontinuierlich nach oben geschraubt.24
Drei Tagungen in den Jahren 2002 und 2003, unter anderen angestoßen von der Max-Planck-Gesellschaft beziehungsweise dem von George Soros gegründeten Open Society Institute, brachten Deklarationen hervor, die den Open-Access-Gedanken propagieren.25
Der Rat der Europäischen Union machte sich die Forderung nach Open Access im Mai 2016 zu eigen und trug der EU-Kommission auf, geeignete Mittel zu dessen Umsetzung bis 2020 zu entwickeln.26
Im September 2018 schlossen sich sechzehn nationale Forschungsfördergesellschaften [Wikidata, GND] in der cOAlition S zusammen und verpflichteten sich im sogenannten Plan S, ihre Förderzusagen an die frei zugängliche Publikation der Ergebnisse zu knüpfen.27 Die Deutsche Forschungsgemeinschaft (DFG) [Wikidata, GND] hat sich dem Plan S bisher nicht angeschlossen, da verschiedene Einwände und Fragen noch nicht geklärt sind.28 Der Verband Deutscher Kunsthistoriker (VDK) [Wikidata, GND] etwa wies in einer Stellungnahme auf die rechtliche wie finanzielle Problematik der Bildrechte für Internetpublikationen hin sowie auf die unzumutbare Belastung von institutionell nicht angebundenen Kollegen durch Article Processing Charges. Ferner sei zu bedenken, dass im Fach Kunstgeschichte Forschungsergebnisse üblicherweise auch in Ausstellungskatalogen oder breitenwirksamen Sachbüchern veröffentlicht werden, mithin in kommerziellen Print-Produkten, die das Publikum bis auf weiteres wohl kaum durch digitale Publikationen ersetzt sehen möchte.29
E-Journals – aus Sicht von Autoren, Lesern, Redaktion und Technik
Zusatznutzen für Autoren und Leser
Unbestritten erfordert jeder Medienwandel erst einmal eine Zeit der Gewöhnung – auch in der Kunstgeschichte, in der Autoren tendenziell lieber auf das Renommee jahrzehntealter gedruckter Zeitschriften vertrauen. Immerhin dürfte die Retrodigitalisierung gedruckter Zeitschriften durchaus auch den gänzlich neuen, originären E-Journals zu größerer Akzeptanz verhelfen: Denn darüber wird der zeit- und ortsunabhängige digitale Zugriff auf Fachtexte selbstverständlich – und in der Folge gewinnen Online-Zeitschriften auch etablierte Kollegen als Autoren und Gutachter.
Zweifellos bietet ein E-Journal im Gold Open Access [Wikidata, GND] auf der Nutzerseite eine Reihe von Vorteilen. Es ist weltweit frei abrufbar und erfüllt so eine wesentliche politische Forderung nach gleichberechtigtem Zugang zu Wissen, und konkreter die Forderung des „Plan S“. Der Textumfang und die Anzahl der für die kunsthistorische Argumentation so wichtigen Abbildungen müssen nicht wie beim Druck aufgrund der Produktionstechnik und Herstellungskosten beschränkt werden; zudem sind Schwarz-Weiß- oder Farbabbildungen beliebig wählbar. Allerdings werden für die Bildlizenzen angesichts der weltweiten Zugänglichkeit von digitalen Aufsätzen im Open Access häufig höhere Beträge angesetzt als bei einer Verwendung in gedruckten Zeitschriften. Zudem müssen die Lizenzen in regelmäßigen zeitlichen Abständen erneuert werden, während sie im Print in der Regel nur einmal anfallen. Mit der Berufung auf das Recht des wissenschaftlichen Bildzitats agiert man in einer juristischen Grauzone.30 Die Anzahl der Institutionen, die ihre Bilddateien für wissenschaftliche Publikationen frei zur Verfügung stellen wie zum Beispiel das Metropolitan Museum of Art in New York oder die Bibliothèque nationale de France in Paris, ist bislang überschaubar. Dies führt auf Dauer vermutlich zu einer Art Filterblase: Während die frei verfügbaren Abbildungen immer wieder verwendet werden, bleiben vergleichbare Objekte und neues Bildmaterial unbekannt. Immerhin ergeben sich durch die Möglichkeit, Hyperlinks zu setzen, in manchen Fällen Alternativen. So wurde zum Beispiel im RIHA Journal im Herbst 2018 ein Aufsatz über Gerhard Richter publiziert, in dem sich keine einzige Abbildung findet, stattdessen aber zahlreiche Verlinkungen auf das Gerhard Richter Archiv, welches online frei zugänglich ist.31 In gleicher Weise ist selbstverständlich die Einbindung von oder Verlinkung zu Video- oder Audiodateien möglich.
Wesentlich weiter gehende Möglichkeiten des digitalen Publizierens hat bereits vor mehreren Jahren die Online-Zeitschrift Nineteenth Century Art Worldwide präsentiert. Mit finanzieller Unterstützung durch die Andrew Mellon Foundation [Wikidata, GND] entstanden in einem von 2012 bis 2015 laufenden Projekt in Zusammenarbeit von Kunsthistorikern und IT-Spezialisten insgesamt sechs Aufsätze, die unter anderem dynamische Karten, Graphiken sozialer Netzwerke, digitale Faksimiles oder Rekonstruktionen von Sammlungsräumen enthalten.32
Schließlich sind unter den Vorteilen von E-Journals auch diejenigen zu nennen, die unseren Arbeitsgewohnheiten entgegenkommen: Gedruckte Aufsätze trug und trägt man in der Bibliothek zur Kopierstelle, um sie anmerken und mit nach Hause nehmen zu können. Aufsätze aus E-Journals lassen sich bequem an fast jedem Ort aufrufen – und als PDF lokal speichern oder ausdrucken. Mit den digitalen Zeitschriften wird sicher nicht sofort der papierlose Arbeitsplatz einhergehen. Gleichwohl ermöglichen sie ein zeitlich wie räumlich flexibleres Arbeiten.
Digital vorliegende Artikel können auch die Textarbeit erleichtern oder beschleunigen, da sie eine Volltextsuche erlauben. Die Einfügung von ORCID-IDs,33 elektronischen Autoren-Identifikationsnummern, gewährleistet die eindeutige Zuordnung von Publikationen zu Forschern, etwa bei Personen gleichen Namens oder bei Schreibvarianten, die sich bei der Transkription aus anderen Schriften ergeben. Schließlich können Autoren mit Online-Texten genauso Tantiemen erzielen wie mit gedruckten Artikeln. Jeder einzelne Aufsatz kann, auch ohne dass die Fachzeitschrift, in der er erscheint, mit einer Zählmarke versehen ist, bei der VG Wort [Wikidata, GND] geltend gemacht werden.34
Als Vorteil von E-Journals werden häufig auch die verkürzten Zeiten auf dem Weg vom Manuskript zur Veröffentlichung genannt. In der Tat erlaubt das digitale Publizieren, Aufsätze nicht mehr gebündelt in Ausgaben oder Heften zu veröffentlichen, sondern einzeln und fortlaufend (das RIHA Journal etwa praktiziert diese Form der Veröffentlichung; die Mehrzahl der genuinen E-Journals setzt allerdings vorerst auf das aus dem Druckzeitalter überkommene Heftschema). Die Veröffentlichung „on a rolling basis“ kann durchaus die Wartezeiten des Autors zwischen Einreichung und Publikation verkürzen.
Die gelegentlich mit E-Journals verbundene Vermutung eines per se schnellen Publikationsprozesses scheint allerdings eine Illusion zu sein. Denn es gibt – wie im Redaktionsbetrieb von Print-Zeitschriften – einige bremsende oder wenig steuerbare Faktoren. Online-Zeitschriften wie das RIHA Journal, die sich dem sogenannten double-blind Peer-Review [Wikidata, GND] verpflichtet haben, holen für jedes Manuskript zwei anonyme Gutachten ein. Die Gutachter, Kollegen an Universitäten, Museen oder Denkmalämtern, unternehmen die Begutachtung in der Regel ehrenamtlich, leisten also einen service to the discipline, der allenfalls (und: falls gewünscht) durch ihre namentliche Nennung im erfolgreich publizierten Artikel honoriert wird. Diese Kollegen möchte man kaum auf Fristen von ein oder zwei Monaten festlegen und zeitlich unter Druck setzen; abgesehen davon gäbe es auch keine Handhabe dafür. Zum anderen gilt die einfache Gleichung, dass ein Redakteur auf einer Teilzeitstelle mehr Tage für die Durchsicht eines Textes benötigt als der Kollege mit der Vollzeitstelle. Die zur Verfügung stehenden Personalmittel sind naheliegenderweise auch hier ein limitierender Faktor.
Schließlich ist eine sorgfältige und strenge Redaktion bei E-Journals selbstverständlich genauso unabdingbar wie bei gedruckten Zeitschriften, sollen die Ergebnisse dauerhaft von Wert sein. Die Vorstellung, online zu publizieren sei gleichbedeutend mit „schnell und billig“, ist demnach eine Fehleinschätzung.
Ist der Kern der Redaktionsarbeit also bei gedruckten wie digitalen Zeitschriften identisch, lassen sich gleichwohl auf dem Gebiet des Online-Publizierens neue Vorgehensweisen testen. Das 2009 gelaunchte E-Journal Kunstgeschichte. Open Peer Reviewed Journal z. B. wurde hinsichtlich der Arbeitsabläufe radikal neu gedacht. Es galt die Devise „publish first, judge later“. Anstelle einer vorgeschalteten Redaktionskonferenz oder einer anonymen Begutachtung durch je zwei Fachkollegen [Wikidata, GND], die über die Annahme oder Ablehnung eines Textes entscheiden, sollte die Community [Wikidata, GND], die Fachgemeinde, in transparent, das heißt öffentlich gemachten Kommentaren auf der Webseite der Zeitschrift die Substanz und Relevanz eines Manuskriptes beurteilen. Das lediglich formal vereinheitlichte Manuskript sollte für die Dauer von sechs Monaten als „Text zur Diskussion“ auf der Webseite eingestellt werden und erst im Anschluss, und gegebenenfalls nach einer Überarbeitung durch den Autor, in der Kategorie „Artikel“ seinen endgültigen Platz finden. Diese – auf die Fachgemeinschaft bezogene – basisdemokratische Beurteilung sollte eine Alternative zu den traditionellen Verfahren bieten, die aus verschiedenen Gründen, nicht zuletzt der hermetischen Entscheidungsfindung, immer wieder in der Kritik stehen.35
Als Redakteurin von Kunstgeschichte. Open Peer Reviewed Journal in der Zeit der Anschubfinanzierung durch die DFG kann ich im Nachhinein festhalten, dass dieses Konzept in der Praxis nicht aufging. Die Kommentierfreudigkeit der Fachcommunity tendierte gegen Null. Sie ist im Übrigen auch nicht im Zuge der Verbreitung und Geläufigkeit der Social Media gestiegen. Beim RIHA Journal, das von 2010 bis 2018 eine Kommentarfunktion anbot, waren in dem gesamten Zeitraum lediglich zwei Kommentare eingegangen. Vermutlich ist allen Akteuren bewusst, dass Stellungnahmen, auch wenn – oder gerade weil – sie in einem E-Journal rasch publik gemacht werden könnten, sorgfältig bedacht sein sollten. Es braucht wohl ein ganz konkretes Interesse an einem Artikel, um sich die Zeit für eine substanzielle Einlassung oder Entgegnung zu nehmen. Daneben sei angemerkt, dass so manches Manuskript in der Originalversion dem Leser kaum zumutbar ist. Es braucht Fachredakteure [Wikidata, GND], die nicht nur für eine formale Vereinheitlichung sorgen, sondern sprachliche Wendungen glätten, gelegentlich Informationen oder Daten zum besseren Verständnis nachtragen und vor allem auf die Stringenz der Darstellung achten.
Als Zwischenfazit darf man aus Sicht der Autoren und Leser festhalten, dass beide bei Online-Zeitschriften diverse Zusatznutzen erhalten. Diese dürften deutlich stärker wiegen als der Verlust des haptischen Erlebnisses und der Wegfall der (aufwendig herzustellenden) Sonderdrucke, die man unter Kollegen austauschte oder Bewerbungen beilegte. Letzteres mag einen Wandel, wenn nicht das Ende einer akademischen Kommunikationsform bedeuten. Ein schlagendes Argument für das Festhalten an gedruckten Zeitschriften ist es jedoch nicht.
Dauerhaftigkeit von E-Journals?!
Neue Herausforderungen stellen sich indes hinsichtlich der Persistenz von online publizierten Zeitschriften [Wikidata, GND]. Wird man sie wirklich mittel- und langfristig zugänglich und lesbar halten können? Vor wenigen Monaten hat der Gießener Sozial- und Erziehungswissenschaftler Wolfgang Sander diese Frage in einem Kommentar in Forschung & Lehre als eines der großen und keinesfalls gelösten Probleme des digitalen Publizierens bezeichnet:
„Angesichts der verfügbaren Speichermedien und der erwartbaren technologischen Veränderungen in der Zukunft ist die Rede von ‚Langzeitarchivierung‘ [Wikidata, GND] ein Euphemismus. Publikationen auf Papier sind bis zu 500 Jahre lesbar; niemand kann das für digitale Daten garantieren, für die sich nicht nur Software und Hardware ständig ändern, für die keine mehr als wenige Jahrzehnte haltbaren Datenträger existieren und bei denen auch niemand weiß, ob Menschen in 200 Jahren überhaupt noch die heutigen Basistechnologien der elektronischen Datenverarbeitung nutzen.“36
Vom Redakteur zum Managing Editor
Es liegt auf der Hand, dass bei digitalen wie bei gedruckten Zeitschriften die Redakteure [Wikidata, GND] für die (Vor-)Auswahl der Texte, die Organisation der Gutachten sowie die Text- und Bildredaktion zuständig sind. Bei E-Journals kommen allerdings einige Aufgaben hinzu, die bei Printzeitschriften in der Regel im Verlag ausgeführt werden. Gemeint sind der Satz (dem im digitalen Bereich das Formatieren der Artikel und das Erstellen von HTML- und PDF-Dateien entspricht), der Druck (oder im digitalen Bereich das Einstellen der Artikel inklusive der Metadaten auf der Webseite), der Versand und das Marketing (die Entsprechung im digitalen Bereich sind die Meldung an Datenbanken und Bibliothekskataloge sowie die Werbung auf Twitter, Facebook, ArtHist.net etc.).
In den naturwissenschaftlichen Fächern gibt es ganz andere Organisationsstrukturen für diese Aufgaben, da hier häufig mächtige Verlage37 oder neue Dienstleister38 hinter einem E-Journal stehen und durch hohe Abonnementgebühren oder die Einforderung von Article Processing Charges (APC) derlei Arbeitsschritte übernommen beziehungsweise outgesourct werden können. In der Kunstgeschichte – so etwa beim RIHA Journal, dem Journal for Art Market Studies und den Stedelijk Studies – führen jedoch die Fachredakteure [Wikidata, GND] auch die Arbeitsschritte vom Formatieren bis zum Marketing aus beziehungsweise werden befristet angestellte studentische oder wissenschaftliche Hilfskräfte damit betraut. Bei Neugründungen oder dem Plan, eine bestehende Print-Zeitschrift in den digitalen Open Access zu überführen, muss dieser Mehraufwand einkalkuliert werden.
Open-Source-Software für Open-Access-E-Journals
Sowohl für die Verwaltung eines E-Journals (elektronische Einreichung der Manuskripte, Korrespondenz mit Autoren, Gutachtern und Co-Redakteuren; redaktionelle Arbeitsschritte; Metadateneingabe etc.) als auch für die eigentliche Produktion der Artikel (in der Regel Umwandlung von Dateien aus einem Textverarbeitungsprogramm, meist Microsoft Word, in die Formate HTML und PDF) stehen verschiedene Software-Lösungen zur Verfügung.
Etliche originäre E-Journals zur Kunstgeschichte ließen ihre Webseiten auf der Basis von Content-Management-Systemen (CMS) [Wikidata, GND] wie Plone (RIHA Journal), Joomla (Nineteenth-Century Art Worldwide, Journal of Historians of Netherlandish Art) oder WordPress (Stedelijk Studies, Journal18) aufbauen. Die Produktion der PDFs und HTML-Dateien erfolgt bei manchen mit dem eigentlich für den Printbereich entwickelten Layout- und Satzprogramm Adobe InDesign (zum Beispiel Journal of Historians of Netherlandish Art, Journal for Art Market Studies). Andere wiederum haben von IT-Fachleuten maßgeschneiderte Konvertierungs-Tools [Wikidata, GND] entwickeln lassen (RIHA Journal, Nineteenth-Century Art Worldwide).
Parallel wurden von Vorkämpfern des Open Access seit der Jahrtausendwende mit Lodel und OJS [Wikidata, GND] zwei Journal-Management-Systeme entwickelt, die auf die spezifischen Anforderungen geisteswissenschaftlicher Fachzeitschriften zugeschnitten und als Open Source-Softwares [Wikidata, GND] frei verfügbar sind. Das von der eingangs genannten Plattform Revues.org (seit 2017: OpenEdition Journals ) entwickelte Lodel beinhaltet nicht nur die Möglichkeit des Journal Managements, sondern auch ein Konvertierungs-Tool [Wikidata, GND], mit dem die Redaktionen die MS Word-Dateien der Autoren automatisch in die für das E-Journal benötigten Dateiformate PDF und HTML umwandeln können.39 Das etwa zeitgleich von dem nordamerikanischen Public Knowledge Project (PKP) initiierte Journal-Management-System OJS (Open Journal Systems) [Wikidata, GND] wird von einer internationalen Community [Wikidata, GND] kontinuierlich weiterentwickelt. Es schließt allerdings bislang keinen Dateikonverter [Wikidata, GND] ein, sodass die PDF- und gegebenenfalls HTML-Dateien extern erzeugt werden müssen.40
Mittlerweile werden die Journal Management-Systeme Lodel und OJS [Wikidata, GND] von mehreren hundert beziehungsweise mehreren tausend E-Journals verwendet (auf der Plattform OpenEdition Journals beziehungsweise auf OJS-Plattformen [Wikidata, GND] weltweit).41 Anders als im zentralistisch organisierten Frankreich haben im föderalen Deutschland an die 30 Universitäts- und Landesbibliotheken OJS-Plattformen [Wikidata, GND] für das Hosting von E-Journals eingerichtet.42 Die UB Heidelberg zum Beispiel hostet derzeit knapp 140 E-Journals,43 darunter 37 kunsthistorische auf arthistoricum.net [Wikidata, GND].44
Die Verwendung solcher für die spezifischen Anforderungen von E-Journals entwickelten und von vielen vergleichbaren Zeitschriften eingesetzten Softwares ist sehr sinnvoll, da so Synergieeffekte genutzt und zum Beispiel Software-Aktualisierungen zentral ( OpenEdition Journals ) beziehungsweise von den Betreibern der OJS-Plattformen implementiert werden können. Anders als bei den oben genannten frühen „Insellösungen“ müssen sich die Redaktionen hier lediglich mit den neuen Features vertraut machen. So lassen sich bei den regelmäßig anstehenden Updates sowohl Zeit als auch Zusatzkosten einsparen.
Finanzierungsmodelle für den Gold Open Access
Zweifellos ist der Gold Open Access aus Sicht der Politik und Wissenschaften sowie der Autoren und Leser wünschenswert. Doch wie lässt sich der bereits angedeutete Finanzbedarf dafür decken?45 Dass Online-Publikationen „schnell und billig“ seien, ist, wie schon angesprochen, leider eine Fehleinschätzung aus den Anfangsjahren des digitalen Publizierens, die sich offenbar in den Geisteswissenschaften hartnäckig hält.
Rechnungspositionen
Gleich ob eine bestehende Print-Zeitschrift in ein Open-Access-E-Journal umgewandelt werden soll ( Journal Flipping) oder eine Neugründung geplant ist: Bei der Einrichtung eines E-Journals werden zunächst einmal Gelder für den Aufbau und die Gestaltung der Webseite benötigt. Je nach Anspruch sollen eventuell auch die Gestaltungsvorlagen für die Texte ( Templates) von einem Grafikdesigner professionell erstellt werden, damit das Journal einen unverwechselbaren Charakter erhält.
Die Fixkosten in der Kalkulation sind erstens (und am stärksten ins Gewicht fallend) die eigentliche Redaktionsarbeit [Wikidata, GND] (Text- und Bildredaktion, Organisation der Gutachten) sowie die Aufgaben der Redakteure als „Managing Editors“ (das heißt Text- und Bildformatierung, Metadaten-Erstellung, Indizierung, Marketing). Daneben sind aber auch die Kosten für den Serverbetrieb beziehungsweise das Hosting auf einem externen Server inklusive der dafür notwendigen Wartung und IT-Betreuung in Anschlag zu bringen.
In Abständen von circa drei bis fünf Jahren sind sodann Software-Updates [Wikidata, GND] unumgänglich, die, abhängig von der gewählten Insellösung beziehungsweise der Einbettung des E-Journals in eine größere Plattform, in unterschiedlicher Höhe Arbeitszeit in Anspruch nehmen und Kosten verursachen. Da der Aktualisierungsdruck hinsichtlich des visuellen Erscheinungsbildes im Online-Bereich sicher höher ist als bei Print-Zeitschriften, ist in nicht allzu fernen Abständen auch die gestalterische Überarbeitung der Zeitschriftenwebseite, eventuell auch der Formatierungsvorlagen, durch einen Web- beziehungsweise Grafikdesigner einzuplanen.
Hosting-Möglichkeiten
Wie bereits erwähnt, wurde so manches frühe E-Journal wie zum Beispiel das RIHA Journal auf einem Server der eigenen Institution eingerichtet und von den dortigen IT-Mitarbeitern beziehungsweise einer externen IT-Agentur betreut.46
Die OJS-Standorte [Wikidata, GND] in Deutschland bieten das Hosting für Angehörige der jeweiligen Universität oder Akademie in der Regel kostenfrei an, für Externe wird es meist mit einem Wartungsvertrag im unteren vierstelligen Bereich pro Jahr zur Verfügung gestellt. Eine Ausnahme bildet bislang die an der UB Heidelberg angesiedelte arthistoricum.net-Plattform [Wikidata, GND], die für E-Journals aus dem Fach Kunstgeschichte den Einrichtungsservice und das Hosting inklusive Software-Updates [Wikidata, GND] vorerst kostenfrei anbieten kann.
Die französische OpenEdition Journals-Plattform wird ebenfalls durch öffentliche Gelder finanziert und den Herausgebern der E-Journals kostenfrei zur Verfügung gestellt. Zwischenzeitlich schien man hier an ein Limit gestoßen zu sein. Im Sommer 2019 hieß es auf der Webseite vorübergehend: „Our team’s limited resources mean we can no longer assist in the creation of digital journals. Various hosting solutions are available for new digital journals, such as institutional (e.g. university or laboratory) websites, or private platforms.”47 Durch die Einführung eines „Freemium-Programms“ versucht OpenEdition Journals , Bibliotheken und andere Institutionen für die Zahlung von Beiträgen zu gewinnen, die in die weitere Entwicklung fließen sollen. Alle Zeitschriften erscheinen also weiterhin online im Open Access. Zusätzliche Services hingegen wie zum Beispiel die Bereitstellung von PDF-Dateien zum Download oder Statistiken sind kostenpflichtig und stehen nur den Teilnehmern am „Freemium-Programm“ zur Verfügung.48
Die Redaktionsarbeit [Wikidata, GND] gehört sicher zu den größten Kostenpositionen beim Betrieb eines E-Journals. In der Kunstgeschichte wird diese Leistung oft durch die honorarlose Tätigkeit der Herausgeber erbracht, mit anderen Worten um den „nicht-monetären Lohn von Anerkennung, Aufmerksamkeit und Genugtuung“49 (zum Beispiel: International Journal for Digital Art History; Media Theory – Open Access Journal 50); oder durch die befristete Finanzierung einer Redaktionsstelle aus Drittmitteln (zum Beispiel: Journal for Art Market Studies) beziehungsweise die befristete Finanzierung einer Redaktionsstelle durch das akademische Herausgebergremium (Beispiel: RIHA Journal).
In den Anfangsjahren des digitalen Publizierens wurden in Deutschland einige E-Journals mit Hilfe einer Anschubfinanzierung durch das Bundesministerium für Bildung und Forschung (BMBF) oder die DFG gestartet. Als (über)lebenswichtig für solche Neugründungen erwies sich dann allerdings die dauerhafte Sicherung der Finanzierung nach dem Wegfall der Förderung. Für das bereits genannte Kunstgeschichte. Open Peer Reviewed Journal zum Beispiel konnte offenbar nach der zweijährigen Anschubfinanzierung durch die DFG keine ständige Redaktion eingerichtet werden – mit der Folge, dass das E-Journal seit 2014 immer weniger Texte veröffentlichte und sich erst seit 2020 eine Trendwende abzeichnet. Das RIHA Journal blickte nach der dreijährigen Anschubfinanzierung durch das BMBF ebenfalls in eine unsichere Zukunft, mit kurzfristigen Mittelzuweisungen, kleineren Zuschüssen von Drittmittelgebern und einer daraus resultierenden unregelmäßig befristeten und knapp bemessenen Redaktionsstelle. Seit 2016 steht die Zeitschrift mit einem mittlerweile zweimal verlängerten Matching Funds-Agreement zwischen dem RIHA Verband und dem Zentralinstitut für Kunstgeschichte auf einer stabileren Basis.
Kombinierte Modelle (Hosting und Redaktion) mit und ohne APCs
Ein anderes Finanzierungsmodell [Wikidata, GND] hat eine britische Initiative entwickelt: Die Open Library of Humanities (gegründet 2015) ist ein gemeinnütziger Open Access-Verlag für geistes- und sozialwissenschaftliche E-Journals, der durch ein Bibliotheken-Partnerschafts-Programm finanziert wird: Bibliotheken aus verschiedenen Ländern zahlen einen jährlichen Förderbetrag, um damit die (Teil-)Finanzierung von derzeit 26 Open-Access-Journals auf der OLH-Plattform zu ermöglichen; darunter aus dem Bereich Kunstgeschichte die Zeitschrift des European Architectural History Network, Architectural Histories, sowie zwei E-Journals zur Comic-Forschung und Video-/Fernsehbildern).51 Anders gesagt handelt es sich hier also um eine Umwidmung von Geldern, die diese Bibliotheken zuvor für Subskriptionsgebühren ausgegeben haben.52 Allerdings stößt dieses Modell derzeit an Grenzen, wie seit Sommer 2019 auf der Webseite von OLH zu lesen ist: „Applications to join the Open Library of Humanities are currently closed and will re-open when more libraries join us. This ensures we operate sustainably.“53
Die technische Bereitstellung und Wartung der Open Library of Humanities erfolgt durch Ubiquity Press, einen Verlag für Open-Access-Zeitschriften (sowie Bücher und Forschungsdaten).54 Im Jahr 2012 aus einer Initiative von Mitarbeitern britischer Universitäten entstanden, ist das Ziel, Publikationen im Open Access zu ermöglichen, die (im Unterschied zu kommerziellen Verlagen) kostendeckend, aber nicht gewinnorientiert sind.
Neben dem oben beschriebenen, durch Bibliotheksbeiträge finanzierten Zeitschriftenpaket der Open Library of Humanities publiziert Ubiquity Press derzeit mehrere Dutzend weiterer Journals im Gold Open Access. Bei diesen werden die Kosten (Organisation der Peer Reviews, Redaktion, Produktion, Hosting, Indexierung, Marketing, Archivierung etc.) durch Article Processing Charges (APCs) beglichen. Die APCs betragen, abhängig vom Fachgebiet, zwischen 350 Euro (zum Beispiel beim Bulletin of the History of Archaeology) und über 1 150 Euro pro Aufsatz (Beispiel: Annals of Global Health) und liegen damit nach Aussage von Ubiquity Press bei circa 25 Prozent der sonst üblichen APCs.55
Das Modell der Open-Access-Finanzierung durch die Erhebung von Bearbeitungsgebühren auf Seiten der Autoren hat sich in den STM-Fächern längst etabliert. Jeder der Großverlage in diesem Bereich hat OA-Journals nach diesem Geschäftsmodell in seinem Portfolio. Der 2010 in Basel gegründete kommerzielle Verlag für Open Access-Fachzeitschriften MDPI (Multidisciplinary Digital Publishing Institute) arbeitet ausschließlich mit Artikelbearbeitungsgebühren. Nach Unternehmensangaben befanden sich, Stand Sommer 2019, knapp über 200 Fachzeitschriften aus den STM-Fächern in seinem Programm, für die eine pauschale APC von 2 000 Schweizer Franken verlangt wird.56
Die DFG hat die Universitäten in den vergangenen Jahren bei der Einrichtung von sogenannten Publikationsfonds unterstützt, durch die sich Angehörige der Universität die APCs erstatten lassen können.57 In der im Mai 2019 überarbeiteten Fassung des Plans S erklären die beteiligten Forschungsfördergesellschaften, dauerhaft für die Finanzierung von – transparenten – APCs sorgen zu wollen, um damit den großflächigen Umstieg auf Open Access zu ermöglichen. Dazu hat Wolfgang Sander in dem eingangs zitierten Kommentar auf Forschung & Lehre Online die kritische Frage aufgeworfen, nach welchen Kriterien denn die Erstattung der APCs erfolgen solle, da die zur Verfügung stehenden Mittel sicherlich nicht für alle Anträge ausreichten. Ferner schließt dieses Modell Autoren aus, die vorübergehend oder dauerhaft nicht an eine Institution angebunden sind, wie der VDK [Wikidata, GND] zu Recht in seiner Stellungnahme monierte.58
Kurzum: Das über mehrere Jahrhunderte hinweg stabile Subskriptionsmodell für Fachzeitschriften [Wikidata, GND] wird im Zuge der Digitalisierung [Wikidata, GND] deutlich erschüttert, ja es steht zur Disposition. Das Modell des freien Zugangs zu wissenschaftlichen Forschungsergebnissen ist aus wissenschafts- wie gesellschaftspolitischer Sicht uneingeschränkt zu befürworten; zudem bringt das digitale Medium vielfältige neue Möglichkeiten mit sich. Die elementare Frage nach der Finanzierung des Gold Open Access hat in den zwei Jahrzehnten seit der Einführung der ersten E-Journals eine Reihe von Modellen gezeitigt und wird weitere hervorbringen. Ein neuer Königsweg zeichnet sich dabei (noch) nicht ab.
ORCID®
Andrea Lermer https://orcid.org/0000-0002-3206-4418
Wie es Euch gefällt. Kunstwissenschaftliches Publizieren im Verlag De Gruyter
Der Verlag De Gruyter [Wikidata, GND] blickt auf eine lange Geschichte zurück, die im Jahr 1749 ihren Anfang nahm. Auch wenn wir uns heute im Zeitalter von Big Data und Künstlicher Intelligenz befinden, glauben wir als Verlag [Wikidata, GND] nach wir vor daran, dass die Autor*innen mit ihrem Buch oder ihrem Artikel auch in Zukunft von zentraler Bedeutung für die wissenschaftliche Forschung sein werden. „Der abgeschlossene Text, materialisiert als traditionelles Buch oder Aufsatz, wird seine Rolle als Narrativ, das mehr oder weniger von einer Forscherpersönlichkeit geprägt ist, behalten.“1 Allerdings verändern sich die Formen zeitgemäßen Publizierens derzeit rasant, was sowohl Autor*innen und Herausgeber*innen als auch Verlage [Wikidata, GND] vor Herausforderungen stellt. Der folgende Beitrag soll aufzeigen, wie De Gruyter [Wikidata, GND] mit diesen aktuellen Herausforderungen umgeht.
Die Zukunft des kunstwissenschaftlichen Publizierens
Die Publikationslandschaft wird zunehmend komplexer, neben einer Diversifizierung der Publikationsformen nehmen auch die Anforderungen der Institutionen und Fördermittelgeber an die Wissenschaftler*innen zu, Forschungsergebnisse in unterschiedlichen Formaten darzustellen. In dieser Situation stehen für uns die Wissenschaftler*innen im Mittelpunkt. Sie müssen die Möglichkeit haben, eine Auswahl des richtigen Formats nach ihren individuellen Bedürfnissen zu treffen. Unsere Aufgabe als Verlag [Wikidata, GND] ist es, dafür ein flexibles Spektrum von professionellen Publikations- und Finanzierungsmodellen (Abb. 1) anzubieten.
Als traditioneller Verlag [Wikidata, GND] kommen wir aus einer Welt, in der es Bücher und Zeitschriften ausschließlich in gedruckter Form gab. Dies hat sich inzwischen radikal gewandelt und die gedruckte Form wird in vielen Fällen durch eine Online-Publikation [Wikidata, GND] ergänzt oder ersetzt. Insbesondere ist das der Fall bei umfangreichen Referenzwerken, wie beispielsweise dem bei De Gruyter [Wikidata, GND] erscheinenden Allgemeinen Künstlerlexikon [Wikidata, GND]. Hier werden die gedruckten Bände von einer Datenbank [Wikidata, GND] flankiert, deren Inhalt nicht nur viel umfassender ist als der der gedruckten Bände, sondern auch durch zahlreiche Suchoptionen auf ganz andere Art erschlossen werden kann. Auch die im Deutschen Kunstverlag [Wikidata, GND] erscheinende Zeitschrift für Kunstgeschichte [Wikidata, GND] sowie die architectura erscheinen gedruckt sowie online und wann immer es die Bildrechte zulassen, sind unsere Monografien [Wikidata, GND] und Sammelbände [Wikidata, GND] als E-Books [Wikidata, GND] erhältlich.
Die entscheidende Entwicklung der letzten Jahre bestand aber im Fortschreiten des Open-Access-Gedankens. De Gruyter [Wikidata, GND] hat sich hier bereits früh engagiert und seit 2010 mit ersten Publikationen, beispielsweise dem Handbuch Bibliothek 2.0 und den Bänden der Reihe Topoi – Berliner Studien der Alten Welt, aktiv mitgestaltet. Mit Pragmática Sociocultural / Sociocultural Pragmatics veröffentlichte der Verlag 2013 seine erste Open-Access-Zeitschrift in den Geisteswissenschaften und konnte seit 2015 rund 20 vor allem naturwissenschaftliche Subskriptions-Zeitschriften [Wikidata, GND] erfolgreich zu Open-Access-Zeitschriften transformieren. Heute publizieren wir knapp 90 Gold-Open-Access-Zeitschriften, davon zwölf in den Geisteswissenschaften. Auf unserer Webseite sind aktuell mehr als 2000 Open-Access-Bücher abrufbar, beispielsweise der im Juli 2019 beim Deutschen Kunstverlag [Wikidata, GND] in der Reihe MuseumsBausteine erschienene Titel Das erweiterte Museum – Medien, Technologien und Internet. Insgesamt erscheinen rund zehn Prozent unserer geisteswissenschaftlichen Buchpublikationen im Gold-Open-Access-Format. De Gruyter [Wikidata, GND] ist Sponsor des Directory of Open Access Books und Mitglied der Open Access Scholarly Publishers Association [Wikidata, GND].
Open-Access-Publizieren bei De Gruyter
Es gibt eine Vielzahl von Möglichkeiten, Open Access zu publizieren: Vom Upload auf die Webseite der Autorin oder des Autors über institutionelle Repositorien [Wikidata, GND] bis zu den unterschiedlichsten Angeboten von Dienstleistern und Verlagen. Welche Vorteile bietet eine Open-Access-Veröffentlichung in Zusammenarbeit mit einem wissenschaftlichen Verlag [Wikidata, GND] wie De Gruyter [Wikidata, GND]? Diese Frage soll im Folgenden ausführlicher beleuchtet werden.
Zunächst bietet ein Verlagsprogramm einen sorgfältig kuratierten Programmkontext, in dem Open-Access-Publikationen ihren gleichwertigen Platz neben Print-Publikationen und E-Books [Wikidata, GND] mit Paywall finden. Dieser Programmkontext fördert die Wahrnehmung eines Titels ganz unabhängig von seiner Vertriebsform. Neben den traditionellen Verlagsleistungen wie Lektorat, Layout und hochwertigem Druck bieten wir auch die notwendigen technischen Leistungen wie Konvertierung oder Workflow-Management aus einer Hand an.
Autor*innen und Herausgeber*innen können darauf vertrauen, dass alle Online-Publikationen mit zeitgemäßen technischen Funktionalitäten ausgestattet sind. Neben dem PDF-Format publizieren wir auch im EPUB- und im XML-Format [Wikidata, GND]. Hier ist der Volltext durchsuchbar und Zitierungen sind über Hyperlinks verknüpft. Bibliografische Daten für einzelne Zeitschriftenartikel lassen sich bequem exportieren und eine Übersicht über die am häufigsten heruntergeladenen Artikel einer Zeitschrift ist abrufbar. Auch der Upload von ergänzenden Dateien in unterschiedlichen Formaten wird unterstützt. Bei Büchern stellen wir eine ‚Blick ins Buch‘-Funktion zur Verfügung.
Für eine bestmögliche Auffindbarkeit der Online-Publikationen sorgen zunächst die jeweils vergebenen DOIs [Wikidata, GND]. Darüber hinaus arbeitet De Gruyter [Wikidata, GND] ständig an seiner Suchmaschinenoptimierung (SEO) [Wikidata, GND] im Hinblick auf Google und andere Anbieter. Auch die Zusammenarbeit mit den wichtigsten Abstracting- und Indexing-Services ist dem Verlag für seine Zeitschriften sehr wichtig. So ist die Zeitschrift für Kunstgeschichte [Wikidata, GND] beispielsweise im Arts and Humanities Citation Index (Thomson Reuters), dem European Reference Index for the Humanities, SCOPUS sowie weiteren Services berücksichtigt. Auf Wunsch ist auch eine Verlinkung mit der ORCID-ID [Wikidata, GND] der Autorin beziehungsweise des Autors oder der FundRef-ID der fördernden Institution möglich. Durch die Retrodigitalisierung älterer Zeitschriftenjahrgänge entsteht ein elektronisches Archiv. Um die Sicherheit und Zugänglichkeit der Daten auch langfristig zu gewährleisten, arbeiten wir mit einem auf Langzeitarchivierung spezialisierten Partner zusammen.
Wie bereits erwähnt haben die Autor*innen und Herausgeber*innen die Möglichkeit, zwischen verschiedenen Publikations- und Finanzierungsmodellen zu wählen und so ihren Bedürfnissen entsprechend zu publizieren. Im Bereich Open Access kann dabei in jedem Fall der grüne Weg beschritten werden. Eine Veröffentlichung auf der Webseite der Autorin beziehungsweise des Autors oder die Archivierung in einem institutionellen Repositorium [Wikidata, GND] ist für alle bei De Gruyter [Wikidata, GND] erscheinenden Artikel und Aufsätze spätestens zwölf Monate nach ihrem Erscheinen standardmäßig möglich.
Für Gold Open Access bietet der Verlag unterschiedliche Modelle an. Im Zeitschriftenbereich ist insbesondere in den Naturwissenschaften eine Finanzierung durch Article Processing Charges (APCs) möglich, die durch die Autor*innen beziehungsweise ihre Institutionen oder Förderinstitutionen getragen werden. Bei anderen Zeitschriften finanziert die jeweilige Fachgesellschaft die Open-Access-Stellung. Auch für unsere Subskriptionszeitschriften [Wikidata, GND] ist in den meisten Fällen die Open-Access-Publikation von einzelnen Artikeln möglich, was als hybrides Modell bezeichnet wird. Im Buchbereich spielen Book Processing Charges (BPCs) eine wichtige Rolle, die in der Regel im Rahmen von Drittmittelprojekten oder einer dedizierten Open-Access-Förderung finanziert werden. Bei der Finanzierung durch Bibliothekskonsortien handelt es sich um ein noch recht neues Modell, das sich grade in der Erprobung befindet.
Open-Access-Publikationen erscheinen bei De Gruyter [Wikidata, GND] standardmäßig unter einer CC-Lizenz, deren Ausgestaltung von den Anforderungen der Autorin oder des Autors bestimmt wird. Die Bereitstellung auf der OAPEN-Plattform [Wikidata, GND] sowie die Indexierung im Directory of Open Access Books beziehungsweise Directory of Open Access Journals gehört ebenfalls zu unserem Standard. Gleichermaßen wie andere Publikationen kommen auch Open-Access-Veröffentlichungen in den Genuss von umfangreichen Marketingmaßnahmen. Zu nennen sind hier beispielsweise die Bewerbung im Neuerscheinungsverzeichnis, auf Flyern und der Webseite, in Newslettern, über Social-Media-Kanäle und Google Advertising.
Herausforderungen durch Open Access
Gerade in den Geisteswissenschaften ist das Publizieren in Open Access allerdings noch mit zahlreichen Herausforderungen verbunden. Im Gegensatz zu den Naturwissenschaften fehlt es bislang an erprobten Modellen, die die speziellen Gegebenheiten der Fächer berücksichtigen. Im Zeitschriftenbereich greift das Modell der Finanzierung über Article Processing Charges in der Regel nicht, und auch das hybride Open-Access-Publizieren konnte bisher keine breite Wirkung erzielen. Ansätze einer konsortialen beziehungsweise kollaborativen Finanzierung, wie zum Beispiel bei der Open Library of Humanities [Wikidata, GND], werden gerade verstärkt diskutiert.2
Der Zugang zu Fördermitteln für Open-Access-Publikationen ist in den Geisteswissenschaften insgesamt begrenzt und beschränkt sich meist auf Autor*innen mit institutioneller Anbindung. Viele Stiftungen haben Open Access bislang noch nicht in ihre Förderrichtlinien aufgenommen.
Von zentraler Bedeutung für die Kunstwissenschaft ist natürlich das Thema der Bildrechte, die für Open-Access-Publikationen zu einer großen Herausforderung werden können, sofern Rechteinhaber bei dieser Form der Veröffentlichung von einer unbegrenzten Auflage ausgehen oder Rechte nur für eine begrenzte Zeit gewähren. Für Kosten im Zusammenhang mit Bildrechten können zwar beim Schweizerischen Nationalfonds (SNF) [Wikidata, GND] und dem österreichischen Fonds zur Förderung der wissenschaftlichen Forschung (FWF) [Wikidata, GND] Fördermittel beantragt werden, bei den meisten anderen Institutionen ist dies allerdings noch nicht möglich.
Um Modelle zu entwickeln, die den spezifischen Gegebenheiten in den Geisteswissenschaften gerecht werden, hat De Gruyter [Wikidata, GND] ein Open-Access-Labor ins Leben gerufen. Im Fokus steht dabei unter anderem die Entwicklung von nachhaltigen und partnerschaftlichen Transformationsmodellen für geisteswissenschaftliche Zeitschriften. In engem Austausch mit dem Nationalen Open-Access-Kontaktpunkt OA2020-DE sowie Institutionen und Bibliotheken entstehen Pilotprojekte für alternative Open-Access-Modelle im Buch- und Zeitschriftenbereich.
Individuelle Open-Access-Modelle
Derartige Pilotprojekte und Kooperationen weisen jeweils eine sehr individuelle Struktur auf, die die Gegebenheiten im einzelnen Fachgebiet berücksichtigt. Im Folgenden soll anhand von entsprechenden Beispielen unsere Zusammenarbeit mit Universitäten, Bibliotheken und Fachinformationsdiensten vorgestellt werden.
In einer Kooperation mit La Sapienza – Università di Roma [Wikidata, GND] fungiert De Gruyter [Wikidata, GND] als bevorzugter Partner für Open-Access-Publikationen in den Altertumswissenschaften. Die Universitätsangehörigen erhalten besondere Konditionen, sowohl für die Veröffentlichung in Open Access als auch in gedruckter Form. Durch die Open-Access-Stellung wird sich die Sichtbarkeit und Verbreitung auch der nicht-englischsprachigen Forschungsergebnisse zweifellos deutlich erhöhen.
Basierend auf einem Evidence-Based Selection Agreement mit dem Freistaat Sachsen haben 23 akademische Institutionen während einer festgesetzten Laufzeit unbeschränkten Zugang zu einer De Gruyter-E-Book-Collection [Wikidata, GND]. Bisher konnten die beteiligten Institutionen am Ende der Laufzeit die Zugangsgebühr in den Kauf von E-Books [Wikidata, GND] ihrer Wahl (basierend auf der während der Laufzeit gesammelten Nutzungsevidenz) umwandeln. Im neuen Modell kann die Zugangsgebühr auch für die Open-Access-Stellung der E-Books [Wikidata, GND] verwendet werden, wovon also nicht nur die einzelne Institution, sondern auch die weitere Öffentlichkeit profitiert.
Auch Fachinformationsdienste [Wikidata, GND] spielen in unseren Kooperationen eine wichtige Rolle. So konnten in Zusammenarbeit mit dem FID Jüdische Studien und mit der finanziellen Unterstützung der DFG [Wikidata, GND] 20 Buchtitel Open Access gestellt werden. Der FID Linguistik unterstützt die Open-Access-Transformation einer Buchreihe, wobei der FID [Wikidata, GND] die Finanzierung für die bereits erschienenen Bände übernahm. Die zukünftig erscheinenden Bände werden durch den FID [Wikidata, GND] und eine Publikationsbeihilfe finanziert.
Wie die vorangegangenen Beispiele zeigen, sind vielfältige Modelle und Kooperationen möglich, um erfolgreich Open Access zu publizieren oder bestehende Publikationen in Open Access zu transformieren. Als Verlag [Wikidata, GND] betrachtet es De Gruyter [Wikidata, GND] als seine Aufgabe, ein breites Spektrum von Publikations- und Finanzierungsmodellen zu entwickeln und anzubieten. Die Autor*innen und Herausgeber*innen haben die Wahl.
Überlegungen zur „Kunstchronik“ und ihrer publizistischen Zukunft
Bereits im Januar 1948 erschien das erste Heft der Kunstchronik, das im von Kriegszerstörungen gezeichneten Nachkriegsdeutschland eine Bestandsaufnahme der deutschen Museen [Wikidata, GND] und Kunstdenkmäler bot. Kurt Martin, der nicht gänzlich unbescholtene Direktor der Staatlichen Kunsthalle Karlsruhe der Jahre 1934 bis 1956, betonte in seiner Einleitung zum Heft, dass die „Situation der deutschen Museen […] von der allgemeinen geistigen Situation in Deutschland nicht getrennt werden“1 könne. Seine eigene Rolle im Aufbau des „Mustergaus Elsaß-Baden“ und bei der „Ausmerzung“ des dortigen „Einflusses der französischen Kulturpropaganda“ lässt er freilich unerwähnt und fährt im Relativierungsduktus fort, der die Schuldfrage an höhere Mächte delegiert:
„Das Fehlen einer organischen Einheit des Geistes stellt ein allgemeines Problem dar und ist als historische Krise nicht auf Deutschland beschränkt. Doch hat hier die Krise durch den Nationalsozialismus in ihrem sonst folgerichtigen Ablauf eine Beschleunigung und Überstürzung erfahren, die von der Berauschung bis zur Selbstvernichtung führte. […] Das Ausmaß der eingetretenen Zerstörungen können wir noch nicht überblicken, aber wir ahnen, daß unsere letzte geistige Substanz in Frage gestellt ist.“2
Das Zentralinstitut für Kunstgeschichte (ZI) verdankt seine Entstehung einer historisch spezifischen Konstellation, die von Anfang an den doppelten Blick zurück und nach vorne zwingend erforderte: Die Vorgeschichte des ZI, das heute eine der international renommiertesten Institutionen im Bereich der Provenienzforschung ist, begann mit dem Münchner Central Collecting Point unter der amerikanischen Militärregierung, von der dann auch der Impuls zur Gründung einer international ausgerichteten Forschungsstätte ausging.3
Die Kunstchronik. Monatsschrift für Kunstwissenschaft, Museumswesen und Denkmalpflege war das erste Publikationsorgan [Wikidata, GND] dieses neu gegründeten Zentralinstituts. Seit 1948 verlegt sie der Nürnberger Fachverlag Hans Carl. Zugleich ist sie das Nachrichtenorgan des Verbandes Deutscher Kunsthistoriker. Jährlich erscheinen 11 Hefte (September/Oktober als Doppelheft). Schon ab Band 2 (1949) enthielt sie Abbildungen, seit 2012 auch in Farbe. Das Layout folgte dem Geschmackswandel der Zeiten, von eierschalenfarben-dezent über positiv-sonnengelb bis pointiert-rot. Im letzten Jahrzehnt hat sich die Kunstchronik nicht nur immer weiter internationalisiert, sondern auch in ihrem Berichtsspektrum bis zur Gegenwart hin ausgeweitet. Der Untertitel der Zeitschrift benennt ihre inhaltlichen Schwerpunkte: aktuelle kunstwissenschaftliche Forschungsdebatten, Methodendiskussionen, kritische Berichterstattung über kulturpolitische und denkmalpflegerische Fragen sowie über Tagungen mit innovativen Fragestellungen. Darüber hinaus berichten wir über Ausstellungen, die für die kunsthistorische Forschung von Relevanz sind, über Neufunde und Neuinterpretationen von Kunstwerken, schließlich diskutieren wir aktuelle Forschungsansätze in Literaturberichten und Rezensionen. Die Kunstchronik ist damit die einzige kunsthistorische Zeitschrift im deutschsprachigen Raum, die in ihrer Berichterstattung sämtliche Bereiche des Faches Kunstwissenschaft und seiner Institutionen abdeckt. Unserem Imperativ der Internationalisierung entsprechend, publiziert die Kunstchronik neben deutschen auch Beiträge in englischer, französischer und italienischer Sprache.
Mit meiner Übernahme der Redaktionsleitung im Jahr 2010 schienen mir und meiner unersetzlichen Mitarbeiterin Gabriele Strobel neben dem Relaunch des Erscheinungsbildes und der Abschaffung des Petitsatzes zwei inhaltliche Strukturreformen vorrangig: zum einen die inhaltliche Ausweitung durch die Einführung neuer Rubriken, eine bewusste Modernisierung mittels der Ausweitung des Berichtsspektrums vom Frühmittelalter bis zur zeitgenössischen Kunst, aber auch die Forcierung von Interdisziplinarität, indem für die Kunstgeschichte relevante Beiträge aus den Literaturwissenschaften, der Ästhetischen Theorie, der Kulturgeschichte und ähnlichen Disziplinen zunehmend Berücksichtigung fanden. Kriterium hierbei war stets die wissenschaftliche Relevanz für das Fach. Zum anderen war ein entscheidender Reformschritt die Auslagerung der Hochschulnachrichten in die Datenbank [Wikidata, GND] ARTtheses, wodurch 80 Seiten mehr Platz für den inhaltlich-redaktionellen Teil gewonnen werden konnten (der zur Zeit jährlich 480 Seiten umfasst, was verlagsseitig festgelegt ist). Zugleich stellte die Einrichtung von ARTtheses unseren ersten, noch zaghaften Schritt in Richtung elektronisches Publizieren dar.
Die Datengrundlage [Wikidata, GND] der Forschungsdatenbank bilden die in der Kunstchronik jährlich bis 2010 im September/Oktober-Heft publizierten Meldungen über abgeschlossene Magister-, Master- und Diplomarbeiten sowie die jedes Jahr neu bei den universitären und Forschungsinstituten abgefragten Daten über begonnene und abgeschlossene Dissertationen und abgeschlossene Habilitationen in Deutschland, Österreich, der Schweiz sowie in ausgewählten weiteren Ländern. Die Älteren unter uns erinnern sich sicherlich noch, wie man sich, bewaffnet mit einer Lupe (da eben im Petitsatz abgedruckt) durch endlose Spalten diverser Jahrgänge hindurchfräsen musste, um festzustellen, wie originell die eigene Themenwahl für die Dissertation nun wirklich war. Dieses steinzeitliche Procedere ist jetzt vorbei: Seit 2008 wurden die Qualifikationsarbeiten zusätzlich, seit 2011 werden sie ausschließlich in elektronischer Form in ARTtheses erfasst. Die Personalia werden allerdings weiterhin im September/Oktober-Heft der Kunstchronik veröffentlicht, was uns im Hinblick auf die Dokumentation drittmittelgeförderter Forschung sowie auf die Funktion der Zeitschrift als eine Art Spiegel der Fachentwicklung sinnvoll erschien. Natürlich sollte man auch die Tratsch- und Klatschsucht im Fach nicht unterschätzen.
Recherchierbar auf ARTtheses sind jetzt online rund 80 200 Datensätze [Wikidata, GND] der Jahrgänge 1985 bis 2019. Seit Ende Juli 2018 präsentiert sich die Datenbank [Wikidata, GND] in neuem Design und mit verbesserten Suchfunktionen. Mit diesem Relaunch lässt sich die Suche noch gezielter gestalten, die Suchergebnisse sind deutlich leichter zu strukturieren. Die Datensätze sind nicht nur nach den Autor*innen der Qualifikationsarbeiten, sondern auch komplett thematisch erschlossen. Mit der systematischen Facettierung lässt sich ein interaktives Listing der erfassten Kategorien für die jeweiligen Suchergebnisse aufrufen (aufgefächert nach Themenbereich, Künstler, geografischer Zuordnung, Land, Stadt, Hochschule, Betreuer, Art des Abschlusses, Status der Arbeit, Jahr der Meldung). Eine Einschränkung der Suche ist auch zum Beispiel nur nach Masterarbeiten, nach allen neu begonnenen Dissertationen oder nach allen im Jahr 2018 abgeschlossenen Arbeiten möglich. Mit dem Formular „Forschungsmeldung bearbeiten“ wird der Userin oder dem User zudem die Möglichkeit eröffnet, seine bestehende Forschungsmeldung interaktiv zu erweitern: Abstracts zur Arbeit, zusätzliche freie Verschlagwortung, Links [Wikidata, GND] zur Forschungsmeldung (zum Beispiel Publikation der gemeldeten Arbeit, Rezensionen, Website des Verlags etc.). Korrekturwünsche im Datensatz sind ergänzbar.
Aber das reichte uns nicht: Zu bedenken ist unsere Abonnent*innenstruktur. Seit Jahren sinken die Auflagenzahlen kontinuierlich – ein Trend, der die gesamte Fachzeitschriftenlandschaft [Wikidata, GND] heimsucht, obgleich wir mit derzeit rund 1750 Abos noch ganz gut dastehen. Leider fehlt uns nicht nur die Einsicht in das Verhältnis von privaten zu institutionellen Abonnent*innen, sondern vor allem auch in deren Altersstruktur. Es dürfte aber wohl doch eine größere Zahl darunter sein, die nicht mit dem Internet aufgewachsen ist und weiterhin eine Printausgabe haben möchte – und auch bereit ist, dafür zu zahlen. Sehr hilfreich für die Gewinnung von Neuabonnent*innen sind die Sonderkonditionen für Verbandsmitglieder.
Wir sehen uns also mit dem Spagat zwischen dem Erhalt der Abonnent*innenzahlen in der älteren Generation und der Neugewinnung von Leser*innen in der jüngeren Kunsthistoriker*innengeneration konfrontiert. Bei Letzteren darf man sich allerdings keine Illusionen machen: Heutige Studienanfänger*innen abonnieren keine gedruckte Fachzeitschrift [Wikidata, GND] mehr, sodass wohl auf längere Sicht der Open Access [Wikidata, GND] die einzige Chance sein dürfte, neue Jungleser*innen zu gewinnen. Wir versuchen, diese auch dadurch zu motivieren, dass sich unsere Autor*innen nicht allein aus den etablierten Fachvertreter*innen rekrutieren, sondern dass wir in gezielter Weise den Nachwuchs ansprechen – auch wenn dies bisweilen mit einem nicht geringen redaktionellen und pädagogischen Aufwand verbunden ist.
In der derzeitigen unübersichtlichen und schwer abzuschätzenden Lage ist unsere Strategie eine eher abwartende, die in den kommenden rund 5 Jahren auf eine hybride Publikationsform hinarbeitet, zumal wir vertraglich nach wie vor an den Fachverlag [Wikidata, GND] Hans Carl gebunden sind. Diese Public-Private-Partnership hat die schöne Vorgeschichte, dass Helma Schmitt-Carl, die Großmutter des heutigen Verlagsleiters, die 1937 ihre Dissertation über Bauformen der Dorfkirche im oberbayerischen Alpenvorland vom 12. bis zum 16. Jahrhundert veröffentlichte, 1948 den entscheidenden Anstoß für die Begründung einer kunsthistorischen Fachzeitschrift [Wikidata, GND] in Kooperation mit dem ZI gab. Allerdings besteht das Problem, dass die Kunstchronik eigentlich nicht ins Verlagsprofil passt, denn das Zugpferd des Fachverlags Hans Carl ist nun einmal die Brauwelt (das Fachorgan für das Brauerei- und Getränkewesen), sodass sich in unserem Fall generelle Umbrüche in der Verlagslandschaft mit spezifischen inhaltlichen Problemen paaren. Was die Finanzierung [Wikidata, GND] der Kunstchronik betrifft, so haben wir die besondere Konstellation, dass der Verlag die Herstellung und den Vertrieb sowie zehn wissenschaftliche Hilfskraftstunden übernimmt, die Redaktion aber unmittelbar vom Freistaat getragen wird – was bei einer möglichen Umstellung auf Open Access [Wikidata, GND] natürlich ein großer Vorteil wäre, weil wir dann „nur“ den Satz im OJS [Wikidata, GND] selbst vornehmen müssten.
Der nächste entscheidende Schritt bestand dann darin, nach über zweijährigen Verhandlungen mit dem Verleger endlich das freundliche Angebot der Universitätsbibliothek Heidelberg wahrnehmen zu können, die Retrodigitalisierung sämtlicher Bände der Kunstchronik ab 1948 in Gang zu setzen und sie in ihrem Open Journal System [Wikidata, GND] als E-Journal [Wikidata, GND] dauerhaft zu hosten – wenn auch mit einer verlagsseitig geforderten Moving Wall von derzeit drei Jahren, was bei einem Rezensionsorgan eigentlich wenig sinnvoll ist, denn wer möchte drei Jahre nach Erscheinen einer Rezension, die eventuell ein Buch behandelt, das noch einmal ein bis zwei Jahre zuvor erschienen ist, diese wohl noch lesen? Die Retrodigitalisierung erhöht dennoch die Sichtbarkeit [Wikidata, GND] des Organs. Dies gelingt durch die für jeden Beitrag vergebene DOI und die Aufnahme in die einschlägigen Bibliotheksverbundkataloge sowie über die Integration auf arthistoricum.net, dem Portal des Fachinformationsdienstes [Wikidata, GND] Kunst – Fotografie - Design in unmittelbarer Nachbarschaft zu 32 weiteren wichtigen kunsthistorischen Fachzeitschriften [Wikidata, GND]. Auch wenn die Zugriffszahlen auf die einzelnen Beiträge überschaubar sind, so wird doch das Interesse für das jeweils aktuelle Heft über das PDF des Inhaltsverzeichnisses und die Bestellmöglichkeit per One-Click maßgeblich gesteigert. Neben der Veröffentlichung bei arthistoricum.net ist die Kunstchronik auch im Portal Digizeitschriften.de vertreten. Der Nachteil hier gegenüber dem Heidelberger Modell ist, dass die Moving Wall sogar fünf Jahre beträgt und dass es sich aufgrund des Lizenzierungsmodells nicht um einen wirklichen Open Access [Wikidata, GND] handelt.
Für eine parallele E-Paper-Version [Wikidata, GND] der Printausgabe war der Verlag bislang nicht zu gewinnen; und das bei anderen Fachzeitschriften [Wikidata, GND] praktizierte Modell des Verkaufs von Einzelbeiträgen ist gerade bei Rezensionen, Ausstellungs- und Tagungsbesprechungen nicht sehr erfolgsträchtig. Wir haben versucht, dem durch die Einführung neuer, offenerer Rubriken entgegenzuwirken, die über einen längeren Zeitraum das Interesse der Leser*innen wecken können: zum Beispiel zur Museums- und Sammlungsgeschichte, zur zeitgenössischen Kunst (Contemporary, insbesondere das dreifache dOCUMENTA-Echo stieß auf große Resonanz), zur Global Art History, Bildwissenschaft, zu Kunst und Politik und Kunstpolitik, zur Geschichte der Kunstgeschichte und Provenienzforschung. Die Neufunde weiteten sich zu Neuinterpretationen aus, zuletzt begründeten wir die Rubrik Scharfgestellt: Altbekanntes neu gesehen. Die jeweilige Juli-Nummer ist seit 2011 ein Themenheft (Special Issue) zu aktuellen Forschungsfragen der Kunstwissenschaft und zur Methodenreflexion: Vive la Révolution – et après? (2011), Neue Forschungen zur Architekturgeschichte: Transnationalität, Funktionalität, Modernität (2012), Um 1800. Neue Forschungsansätze zur Kunst der Sattelzeit (2013), Neue Methodenansätze in der Kunstwissenschaft – eine kritische Revision (2014), Zeitgenössische Kunst und Kunstwissenschaft – ein prekäres Verhältnis (2015), Kunst und Politik (2016), Historismen und Avantgarden (2017), Nachkriegskunst diesseits und jenseits des Eisernen Vorhangs (2018), Verbrecherisch, dekadent, obsolet – oder unverzichtbar? Debatten um das Ornament (2019), KUNST NATUR POLITIK – JETZT! (2020). Vor allem aber wird die Kunstchronik mit ihren umfassenden Forschungsberichten zunehmend als kritisches Organ des Faches im Hinblick auf Theoriedebatten und Methodendiskussionen wahrgenommen – all das mit einem gewissen Erfolg, wie es scheint, denn verschiedene dieser innovativen Formate wurden dann von anderen Fachzeitschriften dankbar aufgegriffen.
Die entscheidende Frage ist jedoch: Wie könnte beziehungsweise sollte die publizistische Zukunft der Kunstchronik aussehen? Inhaltlich verspüren wir zurzeit keinen Änderungsbedarf. Da wir keine Aufsätze im klassischen Sinne und im Langformat publizieren, kommt ein aufwändiges Double-blind-Peer-Review-Verfahren für uns nicht in Frage. Die Qualitätssicherung im Hinblick auf das wissenschaftliche Niveau erscheint uns durch unsere zehnköpfige Redaktionskonferenz hinlänglich gewährleistet. Medial hingegen haben wir dringenden Innovationsbedarf. Das kurzfristige Ziel wäre, die Moving Wall für das E-Journal auf ein Jahr zu verkürzen. Längerfristig wird es jedoch wohl auf den Open Access [Wikidata, GND] hinauslaufen. Das ZI arbeitet gerade an der Entwicklung einer entsprechenden Strategie für sämtliche seiner Publikationen, solange die Deutsche Forschungsgemeinschaft (DFG) [Wikidata, GND] jedoch keine eindeutige Stellungnahme zum Plan S vorgelegt hat, sind auch unsererseits noch keine abschließenden Entscheidungen zu treffen – obgleich man natürlich lieber selbstbestimmter Vorreiter ist, als sich gezwungenermaßen einer Weisung zu unterwerfen (wobei auch die Weisungsbefugnis der DFG [Wikidata, GND] in diesem Fall noch einmal zu diskutieren wäre).
- Wo soll das Hosting stattfinden – und zwar tunlichst ohne den Verlust unseres eigenständigen Profils und unter Wahrung des international bekannten und bestens eingeführten Traditionsnamens?
- Wie werden die Autorenrechte [Wikidata, GND] unserer Beiträger*innen gewahrt – zumal unter unseren Autor*innen eine gewisse Anzahl an Freiberufler*innen sind, auf die der Plan S gar nicht anwendbar ist? Und damit unmittelbar zusammenhängend: Was passiert, wenn die öffentliche Förderung bei der hostenden Institution ausläuft oder wegfällt – wird es dann Book Processing Charges [Author Processing Charges (APC)] für die Autor*innen geben? Das wäre definitiv nicht in unserem Sinne.
- Eines der Hauptprobleme stellen bekanntermaßen die Bildrechte dar, das wurde schon hinlänglich diskutiert und Grischka Petri hat die frohe Botschaft verkündet, dass wir uns nur noch ein paar Monate lang gedulden müssen. Auch wir müssten eine Rahmenvereinbarung in dieser Hinsicht mit der VG Bild-Kunst [Wikidata, GND] abschließen. Andererseits wäre im Open Access [Wikidata, GND] eine deutlich großzügigere und durchgängig farbige Bebilderung möglich – zurzeit laborieren wir pro Heft mit einem einzigen Farbbogen (16 Seiten) herum.
- Die Wissenschaftskultur in den Geisteswissenschaften [Wikidata, GND] scheint mir im Vergleich mit den Naturwissenschaften im Open-Access-Bereich [Wikidata, GND] (auch und vor allem im Hinblick auf die Finanzierung [Wikidata, GND]) noch nicht gleichermaßen ausgeprägt, ebenso wenig die Akzeptanz von Nicht-Gedrucktem. Das faktische Distributionspotenzial des Open Access [Wikidata, GND] scheint mir derzeit schwer abschätzbar. Auch ich selbst möchte nicht auf das Buch verzichten und mich auch keinesfalls gänzlich der Lektüre am Bildschirm unterwerfen.
- In inhaltlicher Hinsicht könnte die Kunstchronik aber auch stark profitieren: Sie würde mehr Platz im redaktionellen Teil zum Beispiel für weitere Special Issues, für Projektpräsentationen, aber auch für ein Nachwuchsforum beispielsweise für Doktorand*innen gewinnen. Der derzeitige Serviceteil dürfte teilweise obsolet werden, da Veranstaltungshinweise, Zuschriften, Suchaufrufe und Stellenanzeigen von h-arthist und von der Homepage des Verbandes abgedeckt werden. Über den Ausstellungskalender wäre noch einmal gesondert nachzudenken, denn zwar findet man eine entsprechende Rubrik in FAZ und SZ, diese wird aber im Umfang und in der geografischen Abdeckung von der Kunstchronik weit überboten.
- Im Open Access [Wikidata, GND] wären userfreundliche Serviceangebote denkbar: zum Beispiel eine Abonnementfunktion in Art eines Newsletters, in dem die einzelnen Beiträge in einem knappen Abstract erschlossen und getaggt werden könnten oder die Möglichkeit der Einrichtung eines persönlichen Accounts mit einem individuell gestaltbaren Workspace – wie zum Beispiel bei jstor.org – in dem der User Artikel favorisieren und in thematischen Ordnern ablegen kann. Eine Downloadmöglichkeit in einem Format mit OCR-Funktion würde die Durchsuchbarkeit, Markier- und Annotierbarkeit der Dokumente gewährleisten. Hinzukommen sollte die Möglichkeit des Exports der Beitragszitation in Literaturmanagementprogramme.
- Und schließlich läge die echte Zukunft der Open-Access-Publikation [Wikidata, GND] in der Möglichkeit, den jeweiligen Beitrag mit den Originalabbildungen in den entsprechenden Sammlungen oder in Bilddatenbanken ebenso zu verlinken [Wikidata, GND] wie mit Faksimilia, Digitalisaten der erwähnten Quellenschriften und der zitierten Forschungsliteratur – Möglichkeiten, die im Bereich der Quelleneditionen bereits in höchst sinnvoller Weise zur Anwendung kommen. Außerdem wäre im Sinne des Beitrags von Christof Schöch in diesem Band über Publikationsformen [Wikidata, GND] jenseits des PDF-Formats nachzudenken, die sich der Möglichkeiten von Linked Open Data [Wikidata, GND] bedienen und diese weiterentwickeln.
ORCID®
Christine Tauber https://orcid.org/0000-0001-8565-6997
Neue Formen des kunsthistorischen Publizierens jenseits von Aufsatz und Monografie. Die Publikationsdatenbank des Corpus der barocken Deckenmalerei in Deutschland
Die Publikationslandschaft der Kunstgeschichte [Wikidata, GND] unterliegt im Zeichen von Open Access [Wikidata, GND] und von digitalen Such- und Vernetzungsmöglichkeiten einem Wandel.1 Der Druck der Förderungsinstitutionen und die Open-Access-Bewegung in der wissenschaftlichen Community haben neue Formen des Publizierens abseits der großen Verlage attraktiv gemacht.2 Der Verband der deutschen Kunsthistoriker [Wikidata, GND] beteiligt sich an der im Aufbau befindlichen nationalen Forschungsdateninfrastruktur (NFDI) und hat Open Access in einer Stellungnahme im Frühjahr 2020 nachdrücklich empfohlen.3 Im September 2019 hat dieser Wandel innerhalb der Kunstgeschichte durch den geschlossenen Rücktritt des Herausgebergremiums eines der renommiertesten kunsthistorischen Journale, der Zeitschrift für Kunstgeschichte [Wikidata, GND], eine erhebliche Beschleunigung erfahren. Über der Open-Access-Strategie kam es zwischen Verlag [Wikidata, GND] und Herausgebergremium zum Bruch. Im Fach hat dieser Schritt zu durchaus kontroversen Diskussionen geführt. Ohne Zweifel hat die dadurch entfachte öffentliche Debatte die Bedeutung von Open-Access-Strategien eindringlich vor Augen geführt. Ob durch den Bruch zwischen Verlag und Herausgebergremium die von Wissenschaftler*innen geprägte wissenschaftliche Publikation einen erheblichen Ansehens- und Autoritätszuwachs gegenüber der Verlagspublikation erhalten wird, bleibt abzuwarten.4 Jedenfalls zeigt das öffentliche Echo des Falles überdeutlich, dass in Teilen des Faches eine Moving Wall von nur einem Jahr nicht mehr auf ungeteilte Akzeptanz stößt. Einen weiteren Schub wird die Debatte um kunsthistorische Publikationsformen durch das Schwerpunktprogramm Das digitale Bild der Deutschen Forschungsgemeinschaft (DFG) erhalten.5 Die Photothek des Zentralinstituts für Kunstgeschichte [Wikidata, GND] hat den gesamten Bestand von Google hochauflösend digitalisieren lassen, was potenziell erhebliche Möglichkeiten für die digitale Analyse von Bildern bietet.6 Digitale Publikationsformen haben sich für Rezensionen und für digitale Editionen seit Längerem als erfolgreiche Strategie erwiesen.7 Völlig offen ist, in welcher Form in Zukunft der Ausstellungs- und Bestandskatalog bereitgestellt werden wird.8 Ein überzeugendes digitales Gewand für einen Ausstellungskatalog ist bisher noch nicht gefunden worden, obwohl doch gerade diese Publikationsform dafür besonders geeignet wäre.9 Hochauflösende Fotografien wurden etwa für Hieronymus Bosch und Pieter Bruegel auf eigenen Webpräsentationen parallel zur Ausstellung vorgehalten, was im Google Art Project schon lange Standard ist.10 Letztlich sind alle kunsthistorischen Publikationsformen betroffen.11 Neben der klassischen Monografie und dem Zeitschriftenaufsatz gilt dies auch für das kunsthistorische Corpus.12 Im Zentrum der Diskussion steht dabei bisher vor allem die Transition von Print [Wikidata, GND] nach Online. Kaum werden im Fach das Video [Wikidata, GND] als eigenständige Publikationsform, die neue Rolle von Social Media wie Twitter und die Möglichkeit der Publikation von Multimedia-Files breit diskutiert. Große Zeitschriftenverlage sind bereits dazu übergegangen, Video-Abstracts von publizierten Aufsätzen einzustellen.13 Dem Video wird in absehbarer Zeit als eigenständige kunsthistorische Publikation eine größere Bedeutung zukommen.14 Social Media und insbesondere Twitter sorgen für eine neue Form der Kommunikation. Neben der Verbreitung von Forschungsergebnissen haben Social Media Eigenschaften einer Global Faculty Lounge.15 Die Publikation von Forschungsergebnissen in anderen Formen denn als reine Verbindung von Bild und Text wird in der Kunstgeschichte erheblich zunehmen. 3D-Rekonstruktionen sind schon jetzt für Architektur und Raumkünste von Bedeutung.16 Die Corona-Krise und der Übergang zur digitalen Lehre haben alle diese Prozesse im Fach noch einmal erheblich beschleunigt. Videoaufnahme, Podcast und Blog sind zum kunsthistorischen Alltag vieler Kolleg*innen geworden. Gerade für die Kunstgeschichte bietet eine Publikation mit audiovisuellem Material eine ganze Reihe von Vorteilen und es ist nur eine Frage der Zeit, bis diese neuartigen digitalen Möglichkeiten erkannt und ausgeschöpft werden.
Im Fach fehlt es darüber hinaus an Repositorien, in denen digital vorliegende Forschungsdaten vor der Publikation der Ergebnisse mit Kolleginnen und Kollegen sicher ausgetauscht werden können. Bisher geschieht das immer noch mit USB-Stick, externer Festplatte, Dropbox oder Google Drive, aber eigentlich müsste eine kunsthistorische Forschungsinstitution oder eine Universitätsbibliothek ein solches sicheres Datenaustauschsystem zur Verfügung stellen. Die Autor*innen müssten die uneingeschränkte Herrschaft über ihre Daten behalten, aber darin einwilligen, dass die Daten nach einer angemessenen Sperrfrist durch die öffentliche Institution unter Einhaltung aller rechtlichen Beschränkungen für weitere Forschungen freigegeben werden können. Schon heute stellen sich Forscher*innen unikale Forschungsdaten wie Fotografien und Archivdokumente gegenseitig zur Verfügung, um gemeinsam unübersichtliche und große Forschungsfelder besser bearbeiten zu können. Durch die Möglichkeit des digitalen Austausches von Daten entstehen ganz neue Möglichkeiten der Zusammenarbeit. Diese neuen Entwicklungen in der kunsthistorischen Forschung sollten von Universitäten, Forschungsinstituten, Bibliotheken und Förderinstitutionen durch Bereitstellung angemessener digitaler Werkzeuge unterstützt und gefördert werden. Wegweisend ist das Angebot des Medici Archive Project [Wikidata, GND], das Nutzern die Möglichkeit bietet, Transkriptionen und digitale Reproduktionen von Archivmaterial in das Portal zu laden und das Material gezielt einzelnen Nutzern anzuzeigen oder es freizugeben.17
Der Übergang von der lokal bereitgestellten Buchpublikation [Wikidata, GND] zur distribuierten, potenziell global verfügbaren Digitalpublikation [Wikidata, GND] bildet einen wichtigen, nicht zu unterschätzenden Einschnitt. Bei einem gedruckten Buch kann man relativ sicher sein, dass eine hohe Chance besteht, die nächsten 500 Jahre zu überdauern. Eine Bereitstellung von digital publizierten Ergebnissen über einen längeren Zeitraum erfordert eine ständige Pflege und ist je nach Komplexität mit erheblichen Kosten verbunden, ganz zu schweigen davon, ob die hohen Überlieferungschancen des gedruckten Buches überhaupt je erreicht werden können. Auf der anderen Seite spricht die Publikation von Forschungsergebnissen in einem gedruckten Buch einen Teil der potenziellen Leser*innen überhaupt nicht mehr an. Digitale Publikationen werden in Zukunft mit automatisierten Übersetzungsfunktionen versehen sein, sodass die Bedeutung der Verbreitung der Ausgangssprache einer Publikation abnehmen wird.18 Auch die automatisierte Suche nach Informationen und die entsprechende Abfassung von einfachen Einträgen und Texten wird in Zukunft möglich sein. Geringfügige und einfache Recherche- und Textverfassungsleistungen werden automatisiert ablaufen. Vielfache Möglichkeiten, digital bereitgestellte Forschungsdaten zu analysieren und zu Informationen zu organisieren, werden dazu führen, dass solche Fortschritte nur in den Bereichen zu erzielen sein werden, deren Daten digital vorliegen.19
Das digitale Corpus: Die barocke Deckenmalerei
Im Unterschied zur linearen und abgeschlossenen Monografie sowie zum Zeitschriftenaufsatz versammelt und erschließt das Corpus-Werk eine Objektgattung vollständig. Dies unterscheidet das Corpus vom Ausstellungs- oder Bestandskatalog, die um Werke im Besitz einer Sammlung oder eines Museums herum organisiert sind. Auch besteht ein Unterschied zum digitalen Werkverzeichnis [Wikidata, GND], da dieses oft heterogene Materialien einer Autorin oder eines Autors versammelt. Eine gewisse Ähnlichkeit besteht zur wissenschaftlichen Edition, für die bereits ausgereifte digitale Publikationswerkzeuge bereitstehen. Die kritische und wissenschaftliche Edition [Wikidata, GND] stellt Material der Gemeinschaft der Forschenden zur Verfügung. Beispielhaft wurde das Problem des digitalen Edierens in der Kunstgeschichte mit der Edition der Schriften von Joachim Sandrart gelöst (sandrart.net). Das Corpus ist von der sammelnden Institution unabhängig. In einem Corpus können ortsfeste Werke erschlossen werden, die nur unter Verlust des Kontextes in Museen gesammelt werden können. Ein Corpus kann nach sammelnden Institutionen organisiert sein oder topografisch geordnet werden, wenn die Werke ortsfest sind. Da in einem Corpus Werke unabhängig von den besitzenden Institutionen erfasst werden und die Ordnung der im Corpus beschriebenen Werke oft nach sehr unterschiedlichen Kriterien erfolgen kann, bietet die digitale Erschließung eines Corpus-Werkes Vorteile. Oft verfügen Corpus-Werke über eine digitale Bilddatenbank [Wikidata, GND] und publizieren die Ergebnisse nach wie vor in Print und Open Access als PDF.20 Dies hat entscheidende Nachteile, da das PDF separat oder gar isoliert für sich steht und Verbindungen zu anderen Objekten nicht adäquat deutlich gemacht werden können. Durch den Dokumenten- und Buchcharakter des PDFs besteht gewissermaßen eine Mediengrenze, die eine interne und externe Verlinkung nur eingeschränkt möglich macht. Die Ordnung der im Corpus erschlossenen Werke erfolgt in Print oder PDF nur nach einem vorab definierten Kriterium, meist der sammelnden Institution oder der Topografie. Andere wichtige Ordnungskriterien wie der Künstler [Wikidata, GND], der Auftraggeber [Wikidata, GND], die Ikonografie [Wikidata, GND] und die Funktion können nur nachträglich über ein Register [Wikidata, GND] oder einen Index [Wikidata, GND] umständlich erschlossen werden.
Die besondere Affinität des Corpus zum Digitalen besteht in der Tatsache, dass das Material übersichtlich und leicht auffindbar zur Verfügung gestellt werden kann. Die innere Ordnung eines Corpus ist in der Regel von dem zu katalogisierenden und erfassenden Material nicht vorgegeben. Die Kriterien für die innere Ordnung und Sacherschließung eines Corpus sind oft konventionell, folgen fast nie einer erzählenden oder linearen Logik und entsprechen oft eher einem Katalog als einer sinnhaften Anordnung. Diese Eigenschaften des Corpus legen eine digitale Publikation nahe. Die digitale Publikation in Form einer Publikationsdatenbank erlaubt die innere Erschließung des Corpus nach unterschiedlichen Kriterien. Ein wesentlicher Nachteil des Corpus, dass das in ihm versammelte Wissen zwar vorbildlich erschlossen ist, oft aber eine insulare Wissensansammlung bleibt, kann zum Teil durch eine digitale Publikation kompensiert werden. Durch die Volltext-Durchsuchbarkeit und die Erschließung mittels Metadaten [Wikidata, GND] wird das tendenziell insulare Wissen des Corpus mit anderem Wissen verknüpft und ist so in aktuellen Forschungskontexten leichter auffindbar.
Die Wand- [Wikidata, GND] und Deckenmalerei [Wikidata, GND] ist ohne den architektonischen Raum nicht zu verstehen. Das Verhältnis von Bild und Raum ist selbstverständlich für jede Form der Malerei von zentraler Bedeutung. Bei der Deckenmalerei ist jedoch der Raumbezug im Unterschied zur Wandmalerei ein wesentlich engerer. Einer Wandmalerei stehen wir gegenüber, bei einer Deckenmalerei befinden wir uns darunter, was eine andere Lageanordnung unseres leiblichen Koordinatensystems bedeutet. Betrachter können sich unter der Decke versammeln. Zum Bild an der Decke steht der Betrachter in einem Verhältnis des Mit-Seins.21 Für eine angemessene Erfassung von Wand- und Deckenmalerei ist dementsprechend das räumliche Verhältnis entscheidend.
Das Corpus der barocken Deckenmalerei in Deutschland erforscht und publiziert die Decken- und Wandmalerei der Zeit zwischen etwa 1550 und 1800 auf dem Gebiet der Bundesrepublik Deutschland. Das Projekt der Bayerischen Akademie der Wissenschaften [Wikidata, GND] erhält eine Förderung der Akademienunion [Wikidata, GND]. Der viel zu früh verstorbene Frank Büttner [Wikidata, GND] hat das Projekt mitbeantragt und das Vorgängerprojekt geleitet. Ein an der Bayerischen Akademie der Wissenschaften in München angesiedelter und von dem Projektleiter Stephan Hoppe [Wikidata, GND] und seinem Stellvertreter Hubert Locher [Wikidata, GND] geführter Projektausschuss steuert das Gesamtprojekt. Zwei Arbeitsstellen in Marburg und München kooperieren bei der Erfassung, Dokumentation und Publikation der wandfesten Malerei der Frühen Neuzeit. Das Corpus besteht seit 2015 und ist auf eine Laufzeit von 25 Jahren angelegt. Die Erforschung der Deckenmalerei gliedert sich in vier Abschnitte: In Modul I werden Höfe [Wikidata, GND], Schlösser [Wikidata, GND] und Residenzen [Wikidata, GND] erforscht, es folgen in Modul II die kommunalen, privaten, adeligen [Wikidata, GND] und bürgerlichen Bauten [Wikidata, GND], die letzten beiden Module III und IV umfassen mit Klöstern [Wikidata, GND], Stiften [Wikidata, GND] und Kathedralen sowie Pfarrkirchen [Wikidata, GND], Wallfahrtskirchen [Wikidata, GND] und Kapellen Malerei in sakralen Bauwerken. Gegenwärtig werden die Höfe, Schlösser und Residenzen bearbeitet. Eine Auswahl von erhaltenen Ausstattungen wird durch professionelle Fotografen in Fotokampagnen des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchiv Foto Marburg [Wikidata, GND] mit digitalen Aufnahmen dokumentiert. Die Fotografien erfolgen in enger Abstimmung mit den Bearbeiterinnen und Bearbeitern der Werke, sodass sowohl von der Qualität der Aufnahme wie auch vom kunsthistorischen Wert eine hochwertige Dokumentation [Wikidata, GND] erreicht wird. Alle Aufnahmen werden mit Metadaten im Bildindex für Kunst und Architektur (www.bildindex.de/) des Deutschen Dokumentationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg erschlossen und sind dort durchsuchbar. Von Beginn an wurde darauf verzichtet, eine eigene Bilddatenbank aufzubauen, da es viel sinnvoller erschien, die Bilddatenbank als Teil eines bereits eingeführten Repositoriums zu betreiben. Die an der Ludwig-Maximilians-Universität München tätige Arbeitsstelle koordiniert das Gesamtprojekt, erarbeitet die digitale Strategie, verantwortet die Wissenschaftskommunikation und leistet im Wesentlichen die kunsthistorische Bearbeitung. Das Deutsche Dokumentationszentrum für Kunstgeschichte – Bildarchiv Foto Marburg verantwortet die Fotokampagnen, katalogisiert die Bildmaterialien zunächst im Rahmen des Bildindex, entwickelt und strukturiert die Publikationsdatenbank und gewährleistet nicht zuletzt die digitale Nachhaltigkeit, also die Langzeitarchivierung [Wikidata, GND]. Dies geschieht selbstverständlich in enger und vertrauensvoller Abstimmung zwischen den beiden Arbeitsstellen. Neben den ausgewählten professionellen Fotografien von Foto Marburg erstellen die Bearbeiter*innen selbständig eine hinreichende fotografische Dokumentation der Ausstattung der Bauwerke. Diese versucht nach Möglichkeit eine lückenlose Dokumentation der Werke zu bieten, die eine ganze Reihe von Detailaufnahmen umfasst. Nur in den Arbeitsfotografien findet sich jedes Bildfeld, jede Signatur, jedes Emblem und jede Kartusche fotografiert. Aus verschiedenen Gründen ist es nicht sinnvoll, alle Arbeitsfotografien in der Publikationsdatenbank zu publizieren. Gleichwohl stellen diese digitalen Arbeitsfotografien für die Forschung zur Wand- und Deckenmalerei wie zur Architektur der Frühen Neuzeit einen wahren Schatz dar, der nach Möglichkeit – das heißt, sofern die rechtlichen Vorgaben dies erlauben – in geeigneter Form der Kunstgeschichte und den Digital Humanities [Wikidata, GND] zur Verfügung gestellt werden soll. Eine Strategie zur Vorhaltung, Nachnutzung und Bereitstellung der Forschungsdaten [Wikidata, GND] wurde 2019 entwickelt und wird momentan umgesetzt. Von besonderem Belang ist, dass auch über die erhaltenen Werke hinaus zerstörte und verlorene Objekte beziehungsweise Ausstattungen dokumentiert und bearbeitet werden. Hier stellen die vielfach im Bildarchiv Foto Marburg vorhandenen historischen Aufnahmen einen wichtigen Fundus dar, der nach Möglichkeit auch mit anderem historischen Bildmaterial verknüpft werden soll. Da für das Gebiet der Bundesrepublik Deutschland keine lückenlose Erfassung der Wand- und Deckenmalerei der Frühen Neuzeit vorliegt, erstellen die Bearbeiter*innen auf der Grundlage des Dehios [Wikidata, GND] (Handbuch der deutschen Kunstdenkmäler [Wikidata, GND]), der publizierten Denkmalinventare und der Unterlagen der Landesdenkmalämter eine neue, nach Bundesländern gegliederte Übersicht zu dieser Werkgattung. So konnten immer wieder neue Funde gemacht werden und Fehler in der Inventarisierung [Wikidata, GND] punktuell korrigiert werden.
Seit September 2019 ist die Publikationsplattform des Corpus der barocken Deckenmalerei in einer Betaversion unter www.deckenmalerei.eu/ online. Sie wird von Stephan Hoppe, Hubert Locher und Matteo Burioni herausgegeben. Die Grundlage für die Publikationsdatenbank bildet ein in CIDOC CRM [Wikidata, GND] konzipiertes Datenmodell, das den Umfang der Meta- und Normdaten festgelegt hat, aber auch die semantische Verlinkung von Räumen und Ausstattung vorsieht. Unter der Federführung von Ute Engel [Wikidata, GND] und auf Grundlage der vom Projektteam erarbeiteten Erfassungskriterien wurde das Datenmodell [Wikidata, GND] von Laura Albers erdacht und realisiert.22 Seit 2019 wird die Publikationsdatenbank auf der Basis des Frameworks React [Wikidata, GND] von Benjamin Thomack konzipiert und umgesetzt. Sie sieht auf der Grundlage des vorliegenden Datenmodells eine Darstellung vor, die dem Bedürfnis von Nutzerinnen und Nutzern im digitalen Zeitalter entgegenkommt, zugleich aber Aspekte einer traditionellen bebilderten Corpus-Publikation beibehält beziehungsweise weiterentwickelt. Neben einem bebilderten, inhaltlich gegliederten fortlaufenden Text zeigt sie als Einstieg sogleich eine repräsentative Fotografie des Objekts und integriert in den folgenden Text digitale Fotografien, die anlässlich der Fotokampagnen des Deutschen Dokumentationszentrums für Kunstgeschichte – Bildarchiv Foto Marburg von professionellen Fotografen nach den Anforderungen der Forschenden aufgenommen wurden. Von der Einstiegsseite kann man gegenwärtig entweder über eine Karte [Wikidata, GND] oder über eine strukturierte Ordnung auf die Einträge zu den Bauwerken zugreifen. Die auf OpenStreetMap [Wikidata, GND] basierende Karte zeigt die bearbeiteten Orte mit Wand- und Deckenmalerei in einer geografischen Übersicht. Die strukturierte Übersicht listet die Wand- und Deckenmalerei nach den Ländern der Bundesrepublik alphabetisch geordnet auf. In Planung ist eine alphabetische Ordnung nach historischem Territorium [Wikidata, GND], nach Malern [Wikidata, GND], nach Auftraggeberinnen und Auftraggebern sowie nach Rang [Wikidata, GND] und Stand [Wikidata, GND] (Kurfürst [Wikidata, GND], Fürstbischof [Wikidata, GND], Herzog [Wikidata, GND], Graf [Wikidata, GND], Reichsritter [Wikidata, GND] etc.). Die Erfassung und Bearbeitung der Werke erfolgen nach wie vor einer territorialen Logik gehorchend, die Bearbeiter*innen teilen sich die Regionen und Länder auf. Das Digitale ermöglicht es, dass die Publikation neben der territorialen Logik auch andere Ordnungskriterien veranschaulichen kann. Die Publikation der Ergebnisse ist nicht mehr davon abhängig, dass territoriale Einheiten vollständig erfasst wurden. Die Ergebnisse können fortlaufend in die Publikationsdatenbank eingestellt werden. Die leichte Lesbarkeit mit der Anmutung eines illustrierten Kunstbuches täuscht über die technischen Fähigkeiten der Publikationsdatenbank hinweg. Das Datenmodell sieht als logische Einheiten Personen [Wikidata, GND], Sozietäten [Wikidata, GND], Ensemble [Wikidata, GND], Bauwerk [Wikidata, GND], Gebäudeteil, Raumfolge, Raum, Bildzyklus, Malerei und Malereiteil vor. Diese logischen Einheiten haben jeweils eine ID, sind mit Metadaten versehen und lassen sich semantisch miteinander verknüpfen. Die Struktur erlaubt es, semantische Zusammenhänge unterhalb der Ebene des Bauwerks abzubilden. Den Räumen werden jeweils historische Funktionen zugeordnet, sodass etwa die Korrelation von Bildthemen und Raumfunktionen strukturiert angezeigt und durchsucht werden kann. Für jede einzelne Malerei wird die Ikonografie nach Iconclass [Wikidata, GND], die Position (Wand, Decke, Himmelsrichtung), Inschriften [Wikidata, GND], die Technik [Wikidata, GND], das Material [Wikidata, GND], die Maße, die Datierung [Wikidata, GND] und der Zustand [Wikidata, GND] erfasst. Die Navigation innerhalb eines Bauwerks erfolgt über ein Inhaltsverzeichnis am Beginn des Textes. Die Publikationsdatenbank möchte Lesbarkeit sowie anspruchsvolle, zeitgemäße und angemessene technische Funktionalitäten miteinander verbinden. Die Möglichkeit der ortsunabhängigen Zusammenarbeit, die das Digitale bietet, soll in Zukunft verstärkt genutzt werden, indem Dritte zur Mitarbeit an der Publikationsdatenbank eingeladen werden.
Da ein substanzieller Teil der bearbeiteten wandfesten Malerei entweder zerstört, für Besucher nicht zugänglich ist oder sich im Privatbesitz befindet, erhält die Publikationsdatenbank Eigenschaften eines virtuellen Museums [Wikidata, GND]. Herausragende Werke der Wand- und Deckenmalerei werden in hochauflösenden Fotografien und mit anspruchsvoller Bearbeitung nur auf der Publikationsplattform der Deckenmalerei einsehbar sein. Dem Anspruch, in Teilen ein virtuelles Museum zu sein, wird die Publikationsdatenbank in Zukunft mit exemplarischen 3D-Rekonstruktionen von einzelnen Räumen und Bauwerken begegnen. Bei den 3D-Rekonstruktionen [Wikidata, GND] profitiert das Projekt erheblich von der Zusammenarbeit mit dem Leibniz-Rechenzentrum [Wikidata, GND] (LRZ) der Bayerischen Akademie der Wissenschaften, die in Zukunft noch weiter vertieft und ausgeweitet werden soll. In einem mehrseitigen Projektionsraum wie der Cave des LRZ und mit Hilfe einer VR-Datenbrille können die im Corpus erarbeiteten Rekonstruktionen und Visualisierungen [Wikidata, GND] auch mobil an Messeständen und bei Tagungen präsentiert werden. Vier weitere 3D-Rekonstruktionen sind in Arbeit oder weitgehend abgeschlossen. Mit den Schlösserverwaltungen und Landesämtern für Denkmalpflege wie auch mit einer Vielzahl von privaten Besitzerinnen und Besitzern wurden Kooperationsverträge und Vereinbarungen abgeschlossen. Die in die Publikationsdatenbank eingestellten Fotografien sind, wenn das die Rechteinhaber gestatten, nach Creative Commons [Wikidata, GND] lizenziert. Zurzeit dürfen die professionellen Fotografien von Foto Marburg mit Angabe des Namens der Fotografen nach den Nutzungsrechten „CC NC ND 4.0“ verwendet werden. Das Projekt strebt eine weitergehende Lizenzierung der Fotografien nach Creative Commons an. Die Texte der Bearbeiter*innen sind nach „CC BY 4.0“ lizenziert. Das Corpus der barocken Deckenmalerei stellt die Forschungsergebnisse Open Access im Netz zu Verfügung.
Alle Aufgaben, die ein guter Verlag leistete und leistet, wie Layout, Satz, Produktion und Vertrieb müssen im Projekt erledigt werden. Auch die bibliografische Erfassung der Publikation muss in Absprache mit Bibliotheken vom Projekt selbst angestoßen werden. Dies bedeutet eine erhebliche Mehrbelastung an Arbeitszeit und Sachkosten, die deswegen nicht zu vernachlässigen ist, da es sich nicht um eine Einmalleistung, sondern um eine Daueraufgabe handelt. Die Publikationsdatenbank muss ständig an den technischen Wandel angepasst und auf die neuste Version der Software gebracht werden. Über die Bearbeitung und das Korrekturlesen der Texte hinaus macht eine Publikation in einer Publikationsdatenbank eine umfangreiche Datenredaktion [Wikidata, GND] und -pflege notwendig, in der die semantischen Verknüpfungen, die Norm- und Metadaten angelegt und kontinuierlich berichtigt und überprüft werden. Dieser erhebliche Mehraufwand und die stetig steigenden technischen Anforderungen an digitale Nachhaltigkeit binden wesentliche Arbeitskraft im Projekt, die ansonsten für die Bearbeitung eingesetzt werden könnte. Dieser teils gravierende Mehraufwand muss bei der Konzeption einer Publikationsdatenbank von Beginn an im Blick bleiben. Die Anlage einer Publikationsdatenbank muss dementsprechend auf die personelle Ausstattung, die Menge und die Komplexität der zu erfassenden Objekte zugeschnitten sein, damit die Eingabe, Datenredaktion und -pflege nicht einen ausufernden Anteil der kostbaren Zeit im Projekt einnimmt. Aus forschungspraktischen Erwägungen hat sich das Corpus der barocken Deckenmalerei in Deutschland deswegen entschieden, die technischen Funktionalitäten der Publikationsdatenbank angemessen und nachhaltig zu konzipieren. Von einer sehr weitgehenden Erfassung von Metadaten und internen semantischen Verlinkungen, wie sie zu Anfang vor lauter Idealismus in den Blick genommen wurden, ist Abstand genommen worden. Eine Analyse des Workflows der Arbeitsgruppe hat zu dem Schluss geführt, dass die Publikationsdatenbank eng an die Arbeitsprozesse angepasst sein muss und nicht zu unnötigem, zusätzlichen Arbeitsaufwand und Zeitverlust führen darf. Diese forschungspraktischen Erwägungen sind zwingend bei der Konzeption und Programmierung einer Publikationsdatenbank mitzudenken.
Es ist nach wie vor sinnvoll, kunsthistorische Daten in Form von Datenbanken anzubieten. Dies gilt für den Bibliothekskatalog wie auch für die Bilddatenbank gleichermaßen. Entscheidend für die Nutzung dieser Datenbanken wird in Zukunft neben der Qualität und Größe der darin enthaltenen Datensätze ihre Vernetzung über Norm- und Metadaten mit anderen Wissensrepositorien im Netz sein. Betrachtet man eine kunsthistorische Publikation, so erwarten die Leser*innen ein Inhaltsverzeichnis, Bildunterschriften und ‑nachweise und als Anhang ein Personen- und Sachregister. Die digitale Publikation bietet nun wesentlich mehr als eine reine „Übersetzung“ der unbestreitbaren Vorzüge des Buches in eine wie auch immer geartete Publikationsumgebung in der Welt des Digitalen. Dieses „wesentlich mehr“ spricht dabei nicht nur die Vorteile einer digitalen Publikation an, es verweist auf die zugrunde liegenden Herausforderungen. Gemeint ist nicht, dass man das ins Netz eingestellte eigene PDF der Printpublikation zur leichteren Auffindbarkeit mit Schlagworten versieht und so nolens volens zum bibliothekarischen Dilettanten wird. Es geht vielmehr um „Daten“ des kunsthistorischen Publizierens, die im eigentlichen Sinne als Forschungsdaten zu bezeichnen sind. Gemeint ist also nicht der Name der Autorin oder des Autors, der Titel des Werkes, das Inhaltverzeichnis, eine Epocheneinteilung, eine geografische Einteilung etc., wie sie in Bibliothekskatalogen angegeben werden, gemeint ist etwas, das man tatsächlich als kunsthistorische Forschungsdaten bezeichnen kann. Je nach Objektgattung oder Bauwerk sind das Datierung, Ikonografie, Aufbewahrungsort, Provenienz [Wikidata, GND], Maße, Technik und Erhaltungszustand etc. Selbstverständlich kann man hier nicht oder nur in sehr eingeschränktem Sinne von standardisierten Forschungsdaten sprechen, da die angemessene Erhebung dieser Daten immer in einem kunsthistorischen Forschungszusammenhang steht. Nur im Kontext des Bestandes ist der notwendige Umfang dieser Daten zu bestimmen. Als vorläufige Orientierung sei auf den Katalogkopf eines kunsthistorischen Ausstellungs-, Werk- oder Bestandskataloges verwiesen. Für einen Bestandskatalog von Medaillen wird man andere Angaben brauchen als für einen Bestandskatalog von italienischer Malerei der Renaissance; wieder anders verhält es sich mit mittelalterlichen Olifanten oder mit der fotografischen Dokumentation von Performance-Kunst. Neben diesen originären Forschungsdaten ist es aber möglich, die Informationen, die klassischerweise in einem Personen- oder Sachregister abgelegt wurden, über Normdaten in neuartiger Weise mit dem Text und den Forschungsdaten zu verknüpfen. Die Anlage und Korrektur eines Katalogkopfes wie auch die Erstellung und Pflege eines Registers sind Aufgaben, die mit der Autorschaft eines kunsthistorischen Textes verbunden sind. Digital publizieren heißt dann nicht mehr, ein gedrucktes Buch in anderer Weise bereitzustellen, es bedeutet auch, dass die Autorin oder der Autor die Form der Bereitstellung von Forschungsdaten verantworten muss. Professionelles kunsthistorisches Publizieren in einer digitalen Umgebung wird die Verantwortung für die angemessene und korrekte Bereitstellung von Forschungsdaten mitumfassen. Eine gesonderte Betrachtung der kunsthistorischen Forschungsdaten gibt Aufschluss über die damit verbundenen Möglichkeiten und Probleme. Nicht für alle kunsthistorischen Forschungsdaten haben sich Standards durchgesetzt. Einige der kunsthistorischen Forschungsdaten lassen sich relativ leicht maschinell lesen, bei den meisten wird das mit ziemlicher Sicherheit in Zukunft möglich sein. Es kommt darauf an, wie die Kunstgeschichte die maschinelle Durchsuchbarkeit durch künstliche Intelligenz [Wikidata, GND] als eigene Aufgabe begreift und in einen Dialog mit entsprechenden Disziplinen wie der Informatik [Wikidata, GND] und dem Informationsdesign tritt. Am einfachsten stellt sich die Situation bei den Personen dar. Für diese gibt es in den allermeisten Fällen Normdaten, wenn es diese nicht gibt, ist es relativ einfach, Normdaten über die Gemeinsame Normdatei (GND) [Wikidata, GND] der Deutschen Nationalbibliothek oder über Wikidata [Wikidata, GND] zu erstellen.
Am Beispiel der Personen möchte ich die Herausforderungen einer kunsthistorischen Publikationsdatenbank erläutern. Über Personennormdaten können Ergebnisse aus der Publikationsdatenbank mit offen zugänglichen Daten von Kulturinstitutionen, Forschungseinrichtungen und Bibliotheken vernetzt werden. Wenn in entsprechenden Datenbanken Normdaten Verwendung finden, was leider nicht immer der Fall ist, kann die Verknüpfung der Datensätze wesentlich einfacher erfolgen. Die Maler könnten über Normdaten mit den Online-Datenbanken von Museen verknüpft oder mit Künstlerlexika vernetzt werden. Auf der Ebene der Bildthemen verwendet die Publikationsdatenbank des Corpus neben der ausführlichen Erörterung der Ikonografie die Iconclass-Systematik. Dadurch können Ikonografien leichter verknüpft und aufgefunden sowie mit anderen Repositorien vernetzt werden. Das Städel Museum [Wikidata, GND] etwa verwendet in seiner Bilddatenbank die Iconclass-Klassifizierung.
Diese und andere Möglichkeiten der Verknüpfung werden für öffentlich zugängliche, gut aufbereitete Daten zunehmend raffinierte und komplexe Möglichkeiten der Verlinkung und der Analyse bereitstellen. Die Verlage haben die Datenanalyse als Zukunftsthema längst erkannt.23 Wer jetzt noch wartet und die Publikationen hinter einer Paywall stehen lässt, ist nicht gut für die Zukunft gerüstet. Dies gilt besonders für Rezensionen, Editionen und Corpus-Werke. Durch eine digitale Publikation, die nicht im PDF-Format vorliegt, bestehen eine ganze Reihe von Nachnutzungsmöglichkeiten der wissenschaftlichen Ergebnisse für die Denkmalpflege, für den Tourismus [Wikidata, GND] und für die Wirtschaft [Wikidata, GND]. Auch erhalten mobilitätseingeschränkte Personen, die die Bauwerke nicht mehr selbst besuchen können, sofern sie Zugang zu einem Rechner und Internet haben, die Möglichkeit am Kulturerbe [Wikidata, GND] und der Forschung teilzuhaben. Der gesellschaftliche Nutzen einer digitalen Publikation dürfte offensichtlich sein. Forschung muss selbstverständlich vordringlich um ihrer selbst willen betrieben werden. Dies ist so und wird auch so bleiben. Doch auch der allgemeine kulturelle Nutzen von digital vorliegenden Datensätzen und Bildern ist gerade für die Kunstgeschichte nicht zu unterschätzen.
ORCID®
Matteo Burioni https://orcid.org/0000-0002-6891-885X
Making-of: Die “Zukunft des elektronischen Publizierens” als Experimentierfeld
Die Vision
Digitales Publizieren [Wikidata, GND] hat ein immenses Potenzial. Schöpft man seine Möglichkeiten aus, wird es letztlich eine neue epistemische Stufe des Kommunizierens, Diskutierens und Denkens in allen Wissenschaften eröffnen. Für die Geisteswissenschaften wird diese Entwicklung deren Unterscheidung in „traditionelle [Wikidata, GND]“ und Digital Humanities [Wikidata, GND] aufheben. Es wird ganz sicher weiterhin sinnvoll sein, Publikationen zu einzelnen Aspekten oder Fragestellungen in Print [Wikidata, GND] oder als PDF-E-Book [Wikidata, GND] etc. zu veröffentlichen, aber wer die volle Bandbreite der Möglichkeiten ausschöpfen und das gesamte Spektrum an Inhalten, Bezügen, Medien eines Wissensbereiches darstellen will, wird auf die neuen digitalen und maschinenlesbaren [Wikidata, GND] Publikationsformate und Darstellungsmöglichkeiten angewiesen sein.
Der Weg dorthin ist weit, orientiert sich das elektronische Publizieren [Wikidata, GND] doch heute nach wie vor noch weitgehend am traditionellen Paradigma des gedruckten Buches [Wikidata, GND]. Monografien [Wikidata, GND] und Sammelbände [Wikidata, GND] werden zu „E-Books [Wikidata, GND]“, Zeitschriften [Wikidata, GND] zu „E-Journals [Wikidata, GND]” und PDF-Artikel werden in regelmäßig erscheinende E-Journal-„Hefte” eingebunden. All dies orientiert sich noch immer eng an den etablierten Modellen der gedruckten (Verlags-)Publikationen.
Diesen Status quo gilt es zu überwinden, wobei digitale Publikationen [Wikidata, GND] sich von den herkömmlichen Druckfassungen durch mehr unterscheiden müssen als „nur“ durch maschinenlesbares [Wikidata, GND] Tagging, Annotierung, Verlinkung und Verknüpfung mit im Sinne eines „Enhanced Publishing“. Digitales Publizieren [Wikidata, GND] meint nicht (nur) theoretisch unbegrenzte Akkumulation von aufeinander bezogenen wissensgenerierenden Informationen. Es meint die Möglichkeit vorher nicht denkbarer Interaktionsformen. Damit entfaltet das digitale Publizieren [Wikidata, GND] seine volle Wirksamkeit, weit über den Vorzug des globalen Golden Open Access [Wikidata, GND] hinaus.
Das digitale Publizieren [Wikidata, GND] wird es ermöglichen, neue Felder der formalen und inhaltlichen Analyse, der historischen, geografischen, sozialen Implikationen, der Präzision im Detail und Vernetzung mit anderen Wissenschaften und deren Ergebnissen zu erreichen, die vorher auch mit dem größten Forscherfleiß nicht möglich waren. Dieses digitale Publizieren [Wikidata, GND] erlaubt Überlegungen und Erkenntnisse zu Fragen zu kommunizieren, die sich bisher im gedruckten Buch gar nicht stellen ließen.
Das ist noch Vision – dieses Buch will einen weiteren Schritt dorthin machen.
Die Ausgangslage
Das Ziel, das sich das Heidelberger arthistoricum.net-Team [Wikidata, GND] vor nun schon über 10 Jahren gesetzt hatte, war klar: der Aufbau einer nachhaltigen Open-Access [Wikidata, GND]-Publikationsinfrastruktur als Angebot an die kunstwissenschaftlichen Nutzer*innen in Deutschland, aber auch darüber hinaus. Anfangs waren die technischen Möglichkeiten noch begrenzt: Es konnten lediglich PDF-Dateien auf einem Dokumentenserver (ART-Dok) dauerhaft und zitierfähig veröffentlicht werden. Mittlerweile reicht das Angebotsspektrum im Routinebetrieb vom Hosting von E-Journals [Wikidata, GND] über die Veröffentlichung von E-Books [Wikidata, GND] bis hin zu digitalen Editionen und Werkverzeichnissen. Höchste Priorität hat dabei die maximale Sichtbarkeit der Herausgeber*innen und Autor*innen und die Zugänglichkeit ihrer Veröffentlichungen im „goldenen [Wikidata, GND]”, also genuin digitalen, frei zugänglichen Open Access, aber auch im Wege der elektronischen Zweitveröffentlichung im sogenannten „grünen” Open Access. Dabei sind auch hybride Modelle möglich, die sowohl eine elektronische Open-Access-Publikation als auch eine Print-on-Demand-Lösung [Wikidata, GND] beinhalten.1
Eingebettet ist das Publikationsangebot des von der DFG geförderten Fachinformationsdienstes Kunst, Fotografie, Design – arthistoricum.net [Wikidata, GND]2 seit 2015 in die Gesamtstrategie der Universitätsbibliothek Heidelberg, sich neben der Wahrnehmung ihrer traditionellen Aufgabe, der analogen und digitalen Informationsversorgung der Heidelberger Universität, auch im verlegerischen Bereich als professioneller Dienstleister zu etablieren;3 geleitet von der Vision eines praktikablen, nachnutzbaren Modells für ein neues, zeitgemäßes, qualitätsorientiertes wissenschaftliches Publikationswesen im Open Access [Wikidata, GND], dessen Publikationen international sichtbar sind und das ohne die etablierten Großverlage auskommt. Die wissenschaftliche Bibliothek steht dabei nicht mehr nur bei der Informationsbereitstellung am Anfang der „Wertschöpfungskette der Wissenschaft” in der Rolle eines Dienstleisters. Sie steht vielmehr zusätzlich auch an deren so wichtigem Ende, nämlich dem Moment der weithin sichtbaren Veröffentlichung der neuen Forschungsergebnisse, dem Moment, der aus „der Erkenntnis des ‚Privatgelehrten‘ eine in der Fachcommunity (oder einer breiteren Öffentlichkeit) diskutierte, evaluierte, evtl. revidierte und damit erst akzeptierte wissenschaftliche Erkenntnis“ macht.4
Die stetig steigende Aufmerksamkeit, die arthistoricum.net [Wikidata, GND] seit seiner Gründung erfährt, die jährliche wachsende Anzahl an E-Book-Veröffentlichungen [Wikidata, GND], die zahlreichen angestoßenen und begleiteten Transformationen vormals nur gedruckt erschienener Kunstzeitschriften, die hohen Downloadzahlen,5 aber auch die diversen strategischen Partnerschaften mit Kultureinrichtungen und Verlagen [Wikidata, GND] belegen,6 dass die bisherigen Publikationsangebote durchaus den Bedürfnissen der kunstwissenschaftlichen Fachcommunity entsprechen.
Großes Entwicklungspotenzial stellt darüber hinaus die Tatsache dar, dass arthistoricum.net [Wikidata, GND] seit Oktober 2020 Teil der von der Deutschen Forschungsgemeinschaft geförderten Nationalen Forschungsdateninfrastruktur (NFDI) ist. Das Konsortium NFDI4Culture 7 nimmt sich dabei der Forschungsdaten [Wikidata, GND] zu materiellen und immateriellen Kulturgütern an. Die beiden Betreiber von arthistoricum.net [Wikidata, GND] – UB Heidelberg und SLUB Dresden – verantworten dabei als Mitantragsteller vor allem die Aktivitäten in Task Area 4, „Data publication and data availability“.
Mehr als „nur” ein PDF?
Der erste Meilenstein – nämlich die Bereitstellung einer verlässlichen und nachhaltigen digitalen Publikationsinfrastruktur für die kunstwissenschaftliche Fachcommunity – ist bei arthistoricum.net [Wikidata, GND] also längst erreicht und wird rege genutzt; allerdings bis auf wenige Ausnahmen bisher „nur” für die Publikation von PDF-Dateien. Weitere Schritte waren nötig auf dem Weg hin zu einer Publikationsform, die die Potenziale des Online-Publizierens [Wikidata, GND] wirklich auszuschöpfen beginnt.
Grundlage hierfür ist die Einbettung der in Heidelberg für arthistoricum.net [Wikidata, GND] bereitgestellten Publikationsplattformen in die in den letzten 20 Jahren aufgebaute modulare digitale Forschungsinfrastruktur der Universitätsbibliothek Heidelberg (heiRIS – Heidelberg Research Infrastructure) (Abb. 1).8 Sie dient – mit besonderem Blick auf die Bedarfe der Geisteswissenschaften [Wikidata, GND], der „Digital Humanities [Wikidata, GND]” – ganz umfassend der Arbeit mit Digitalisaten, digitalen Medien und Texten und umfasst Werkzeuge für semantische Modellierung, Bildannotation, Textedition sowie wissenschaftliche Publikation. Nachhaltige Mehrwerte schaffen die Erschließung mit Normdaten, bibliothekarische Katalogisierung [Wikidata, GND], Verfügbarmachung von Forschungsdaten [Wikidata, GND] sowie vor allem die Langzeitarchivierung [Wikidata, GND].9
Vor dem Hintergrund all dieser Möglichkeiten war es nun das Ziel, die Forschungsergebnisse bei der Veröffentlichung eines Buches – neben einer PDF- [Wikidata, GND] und einer Printausgabe – auch online in einer interaktiven HTML-Version anzubieten, die den Nutzer*innen zusätzliche Funktionalitäten bietet. Texte können hierbei mit erarbeiteten digitalen Daten im Forschungsdatenrepositorium nicht nur ergänzt, sondern grundlegend verschränkt werden. Historische Quellen, Video- und Audiosequenzen oder auch andere weiterführende digitale Angebote liefern Zusatz- oder Hintergrundinformationen. Über eine Kommentarfunktion kann dieser so geschaffene Wissensraum zusätzlich angereichert werden, sodass der wissenschaftliche Diskurs im Idealfall direkt an der Publikation stattfinden kann.
Eine Ende 2020 bei heiUP erschienene Dissertation10, bei der im Sinne eines „Enhanced E-Book“ alle verfügbaren und gemeinfreien Online-Quellen, mit welchen sich die Autorin auseinandersetzt, sowohl in der PDF- als auch in der HTML-Version des Buchs direkt und seitengenau im Text verlinkt wurden, ist beispielgebend für entsprechende Bände auch bei arthistoricum.net [Wikidata, GND]. So stützt sich diese Arbeit auf zahlreiche im Internet frei zugängliche Quellen, vor allem aber auch auf digitalisierte Bücher und auf den eigens hierfür digitalisierten Briefwechsel der behandelten Autorin. Auch das Forschungsobjekt selbst, Marie Luise Gotheins Geschichte der Gartenkunst, wurde digitalisiert und vielfach spezifisch und feingranular in dem Band verknüpft.
Bei der Neugründung der von einem internationalen Herausgeberteam betreuten kunstwissenschaftlichen Open-Access-Zeitschrift 21: Inquiries into Art, History, and the Visual – Beiträge zur Kunstgeschichte und visuellen Kultur 11 im Jahr 2020 konnte das arthistoricum.net-Team [Wikidata, GND] nicht nur die technische Infrastruktur bereitstellen, sondern das Redaktionsteam bei allen Fragen des Onlinegangs, der begleitenden Printausgabe, aber vor allem bei der Einrichtung eines HTML-Workflows beraten, unterstützen sowie einen Teil der notwendigen verlegerischen Aufgaben übernehmen. Alle Beiträge erscheinen dabei parallel sowohl als PDF- und auch als HTML-Version.12
Um die Akzeptanz dieser HTML-Versionen auch im Hinblick auf ihre abschnittsgenaue Zitierfähigkeit zu erreichen – immerhin gilt in geisteswissenschaftlichen Veröffentlichungen noch immer die Angabe der Seitenzahl bei Verweisen und Zitaten als Standard –, wird in Kürze jeder Abschnitt innerhalb des HTML-Textes über einen spezifischen DOI [Wikidata, GND] eindeutig referenzierbar sein. Auf dem Gebiet der Zitierfähigkeit leistet die HTML-Ausgabe damit künftig mehr als das PDF: Über den persistenten Zitierlink lässt sich die zitierte Stelle nicht nur referenzieren, sondern auch mit nur einem Klick direkt von der Bibliographie aus im Volltext der Publikation aufrufen.
Nur kurz erwähnt sei der Einsatz von WissKI (Wissenschaftliche Kommunikations-Infrastruktur), einer ontologiebasierten [Wikidata, GND] virtuellen Forschungsumgebung, die sich immer dann als Publikationsort anbietet, wenn Texte, die komplexere Fragestellungen behandeln, auf der Grundlage digitaler semantischer [Wikidata, GND] Tiefenerschließung veröffentlicht und visualisiert werden sollen.13 Strukturierte wissenschaftliche Texte können mit Bildern, Karten oder 3D-Visualisierungen verknüpft werden. Durch die ontologiebasierte [Wikidata, GND], auf dem CIDOC Conceptual Reference Model [Wikidata, GND] aufbauende Datenhaltung in einem Triple Store stehen Forschungsergebnisse mittels Linked Data [Wikidata, GND] weltweit zur Verknüpfung mit anderen Datenrepositorien bereit.
Das Experimentierfeld
Aber was ist nun eigentlich bei unserer Veröffentlichung des vorliegenden Bandes über Die Zukunft des kunsthistorischen Publizierens (Abb. 2) das „Experiment”? Ausgangspunkt war die Anregung von Christof Schöch in diesem Band,14 der ganz zu Recht dazu auffordert, das „Potenzial digitaler Technologien für die Wissensproduktion” auszuschöpfen und sich nicht mit der „Reinkarnation des gedruckten Buches”, also eben dem oben schon kritisch beleuchteten PDF, zufrieden zu geben, sondern gerade im Gegenteil auf dessen Ablösung zugunsten von Datenformaten [Wikidata, GND] für wissenschaftliche Publikationen hinzuarbeiten, die den FAIR-Prinzipien [Wikidata, GND] – findable (auffindbar), accessible (zugänglich), interoperable (interoperabel) und reusable (wiederverwendbar) – entsprechen.15
Dies haben sich die Herausgeber dieses Bandes zu Herzen genommen und erproben für arthistoricum.net [Wikidata, GND] nun erstmals – neben dem oben kurz beschriebenen semantischen [Wikidata, GND], ontologiebasierten [Wikidata, GND] Publizieren und dem Erzeugen von RDF-Triples 16 und deren Bereitstellung im Triple-Store (Linked Open Data [Wikidata, GND]) in unseren WissKI-basierten Projekten –, wichtige, in den Textbeiträgen behandelte inhaltliche Aspekte maschinenlesbar semantisch auszuzeichnen und damit die Publikation quasi selbst als Linked-Open-Data-Datensatz [Wikidata, GND] für das Semantic Web [Wikidata, GND] aufzubereiten. Geleitet wurden wir dabei auch von dem „5-Sterne-Modell” von Tim Berners-Lee, einem Plädoyer für möglichst „offene Daten” (Open Data).17
Wir erfüllen bei unserem Experiment im Grundsatz immerhin drei der fünf Anforderungen, die Schöch als die Möglichkeiten maschinenlesbarer wissenschaftlicher Publikationen benennt.18 Zwei davon, die „strukturierte und standardisierte Kodierung von dokumentbezogenen Medadaten [Wikidata, GND]” (Anforderung 1) sowie die „explizite Kodierung von Textstrukturen” (Anforderung 2), gehören zu den Grundlagen des medienneutralen Publizierens mit XML [Wikidata, GND] und waren daher ohne Mehraufwand umzusetzen. Eine besondere Herausforderung stellte jedoch für uns die nun experimentell umgesetzte Anforderung 4 dar, nämlich die „maschinenlesbare Auszeichnung der Entitäten (Akteure, Organisationen, Ort, Zeiten) und Konzepte in einem Beitrag (Abstrakta, Fachbegriffe)”. Wie Schöch ausführt, geht dies weit über das Vorgehen hinaus, das bei der Erstellung eines Stichwortverzeichnisses in einem klassischen Sachbuch Anwendung findet. So dient die Auszeichnung der Entitäten und Konzepte nicht nur der Band-immanenten Erschließung des Inhalts: sie werden durch die Verknüpfung mit Normdaten eindeutig identifiziert und im Idealfall in eine domänenspezifische Ontologie [Wikidata, GND] des Semantic Web [Wikidata, GND] integriert.19
Dieser Tagungsband über Die Zukunft des kunsthistorischen Publizierens erscheint also in vier Ausgabeformaten. Drei davon für den „Menschen”: als E-PDF, als Printausgabe (Print-on-Demand) sowie als interaktive und mit Links auf externe Zusatzinformationen „angereicherte” HTML-Version. Das vierte Format – eine validierte20 und mit Normdatenverknüpfungen angereicherte XML-Datei [Wikidata, GND] – ist für die „Maschine” und verweist in die Zukunft – in gewisser Weise also ein experimenteller Selbstversuch. Die Auszeichnungen konzentrieren sich dabei allerdings weitgehend auf die Konzepte, da die in den vorliegenden Texten enthaltenen Entitäten wie z. B. Personennamen aufgrund der Themenstellung des Bandes eher von untergeordneter Bedeutung waren.
Die redaktionelle Umsetzung
Bei unserem Vorhaben wurden auch die Autor*innen in den notwendigen erweiterten Publikationsprozess eingebunden. Neben den Abstimmungen im Zusammenhang mit dem Lektorat sowie der Prüfung der üblichen Druckfahnen-PDFs und deren Freigabe für das PDF-E-Book [Wikidata, GND] sowie die Printausgabe wurden sie in zwei weiteren Zwischenschritten um Unterstützung gebeten:
- Erzeugung eines Gesamtregisters: Aus den von den Autor*innen zu ihrem jeweiligen Aufsatz gemeldeten Schlagworten wurde quasi eine „Gesamtschlagwortwolke” gebildet, die wiederum allen Autor*innen bereitgestellt wurde, um sich daraus noch einmal zu bedienen. Aus den in Deutsch und in Englisch vorliegenden Schlagworten wurde jeweils ein Gesamtregister generiert, das Nutzer*innen der HTML-Ausgabe einen alternativen Einstieg in die Lektüre ermöglicht.21
- Selektion der Normdatenbegriffe: Die Autor*innen wurden gebeten, in ihrem Text die aus ihrer Sicht wichtigsten Wörter zu markieren, um dann durch Tagging (siehe unten) eine gezielte Verknüpfung von Entitäten (Personen, Institutionen u. a.) und Konzepten (Fachbegriffe) mit Normdaten zu ermöglichen. Da wir aufgrund noch fehlender Erfahrung den Autor*innen keine genaueren Kriterien für die Auswahl der als Normdaten zu kennzeichnenden Begriffe vorgeben konnten, blieb die Entscheidung für Selektion und Gewichtung der einzelnen Termini bei den Autor*innen. Hier muss zukünftig von Herausgeberseite aus optimiert werden, um eine einheitlichere Durchdringung des Textes zu erreichen.Das vor allem für die maschinelle Auswertung gedachte Normdatentagging findet in XML-Dateien [Wikidata, GND] statt und bleibt den Augen der Leser*innen normalerweise verborgen. Um unser Experiment dennoch „sichtbar” zu machen und für künftige Publikationsprojekte als Beispiel für Normdatenauszeichnung dienen zu können, haben wir uns entschieden, das Normdatentagging in der HTML-Ausgabe der vorliegenden Publikation durch Unterstreichung der ausgezeichneten Begriffe hervorzuheben und die Hyperlinks zu den Normdatenressourcen ebenfalls darzustellen (Abb. 3).22 Um eine davon ungestörte Lektüre zu ermöglichen, haben wir auf eine Hervorhebung in der PDF- [Wikidata, GND] und Druckausgabe verzichtet.
Die angereicherte XML-Datei [Wikidata, GND] des kompletten Sammelbandes [Wikidata, GND] wird nach ihrer Fertigstellung im Forschungsdatenrepositorium arthistoricum.net@heiDATA23 abgelegt, mit einem eigenen DOI [Wikidata, GND] ausgestattet24, im Verbundkatalog K10plus erfasst25 und darüber hinaus auch im OAIS-kompatiblen [Wikidata, GND] universitären Langzeitarchivsystem [Wikidata, GND] heiARCHIVE nachhaltig archiviert. Bei arthistoricum.net-ART-Books wird auf der Einstiegsseite des Sammelbandes [Wikidata, GND] neben den Zugängen zur PDF-, HTML- und Printversion die XML-Datei [Wikidata, GND] über einen eigenen Button zur Nutzung angeboten.
Die technische Umsetzung
Im Sinne dieses selbstreferenziellen Experiments haben wir die ersten vier von Christof Schöch formulierten Anforderungen26 als Leitfaden genutzt, um zu überprüfen, welche davon bereits heute durch die „Heidelberger” Publikationsprozesse erfüllt werden können und auf welche Art und Weise künftig diejenigen umgesetzt werden könnten, die heute noch nicht Teil etablierter Publikationsprozesse sind.
Die Heidelberger Publikationsinfrastrukturen setzen immer dann, wenn XML-Auszeichnungssprachen [Wikidata, GND] im Publikationsprozess zum Einsatz kommen sollen, auf JATS und TEI [Wikidata, GND]. TEI [Wikidata, GND] hat sich aufgrund seiner Stärken in der editionswissenschaftlichen und linguistischen Auszeichnung zum Standard in den Editionswissenschaften entwickelt und ist das zentrale Datenformat von heiEDITIONS. JATS wiederum geht auf die Initiative der National Library of Medicine (NLM) zurück, eine Auszeichnungssprache zur Kodierung und zum Austausch wissenschaftlicher Zeitschriftenbeiträge zu etablieren. JATS ist heute ein Industriestandard (NISO Z39.96-2012) und verfügt mit BITS (Book Interchange Tag Set) über eine Erweiterung für wissenschaftliche Bücher, deren Zertifizierung als Standard allerdings noch aussteht. Zur Erstellung von JATS-XML kommt der quelloffene Kommandozeilenkonverter meTypeset 27 zum Einsatz, mit dessen Hilfe Manuskripte in den Formaten von Open/Libre Office (odt) oder Microsoft Office (docx) nach JATS ‚roh’ konvertiert und anschließend nach- und weiterbearbeitet werden können. Zu den Anforderungen von Schöch im Einzelnen:
1. strukturierte und standardisierte Kodierung von dokumentbezogenen Metadaten (unter anderem bibliografische Angaben; Stichworte; Lizenz; persistente Identifikatoren wie DOIs) [Schöch, hier und nachfolgend S. 84 in diesem Band]
Die strukturierte und standardisierte Kodierung von Metadaten [Wikidata, GND] in XML [Wikidata, GND] ist heute Standard. JATS und BITS bieten hierzu umfassende tag sets, deren Tags in einigen Fällen zur Disambiguierung (z. B. ISBNs für unterschiedliche Ausgaben, Rollen beteiligter Personen) oder Präzisierung durch Attribute tiefer beschrieben werden können. JATS und BITS sind hervorragend dokumentiert, in der Dokumentation aufgeführte Codebeispiele werten wir als Best Practice und orientieren uns an diesen, wenn möglich und sinnvoll. Normdaten bzw. kontrollierte Vokabulare setzen wir bereits jetzt dort ein, wo vorgegebene oder als Best Practice vorgeschlagene Attributwertemengen zur Beschreibung von Metadaten nicht ausreichen. In der vorliegenden Publikation beispielsweise setzen wir zur Beschreibung der beteiligten Personen auf MARC 21 relator codes 28 und dokumentieren dies im Header der BITS-Datei durch einen XML-Kommentar [Wikidata, GND]. Da der Fokus auf der Weiterverarbeitung der Daten durch Dritte liegt, binden wir die Lizenzangaben sowohl in englischer als auch in deutscher Sprache ein, und zwar in menschenlesbarer Form, wie auch durch entsprechende Verweise auf die ausführliche Beschreibung der Lizenz auf den Webseiten von Creative Commons (Abb. 4).
2. explizite Kodierung von Textstrukturen (unter anderem Haupttext versus Anmerkungen; Einleitung, Hauptteil, Fazit; gegebenenfalls Daten, Hypothesen, Methoden, Ergebnisse; Autor*innentext versus Zitate)
Die Ablösung von Layoutinformationen zugunsten einer beschreibenden Kodierung der Textstruktur ist die Basis medienneutraler Publikationsprozesse mit XML [Wikidata, GND] und seit den medialen Umbrüchen durch das Aufkommen digitaler Alternativen zum gedruckten Buch in vielen Wissenschaftsverlagen bereits gängige Praxis. Im Kern geschieht dies bei uns ganz zu Beginn durch die Konvertierung in meTypeset: Die im Manuskript eingebetteten Layoutinformationen werden von den Heuristiken des Konverters analysiert und interpretiert. Anschließend werden sie entfernt, durch eine Kodierung der Textstruktur ersetzt und im Anschluss an die Konvertierung dort von Hand korrigiert, wo die heuristische Analyse nicht zum gewünschten Ergebnis geführt hat. Am Ende der Prozesskette steht dann üblicherweise die Erzeugung der Ausgabeformate, das heißt die medial spezifische Anreicherung mit neuen Layoutinformationen.
Derart strukturiertes XML [Wikidata, GND] galt in der Verlagsproduktion bisher eher als ein intermediäres Format, dem durch die Konzentration auf medienneutrale Publikationsprozesse und die strenge Fokussierung auf menschliche Akteur*innen eher nur in Ausnahmefällen ein Eigenwert als Ausgabeformat zugemessen wurde (z. B. im B2B-Geschäft größerer Wissenschaftsverlage), das für die Auswertung umfangreicher Textbestände mit Methoden des Text- und Data-Mining aber große Bedeutung hat.
3. strukturierte Kodierung von bibliografischen Verweisen (unter anderem bibliografische Angaben einschließlich persistenter Identifier wie DOIs für Forschungsliteratur und gegebenenfalls Primärquellen)
Die Einbettung bibliografischer Verweise erfolgt bei dem vorliegenden Band noch in unstrukturierter Form. Zum einen finden sich bibliografische Verweise in geisteswissenschaftlichen [Wikidata, GND] Texten oftmals eingebettet in die Forschungsdiskussion oder eng mit ihr verschränkt, wo sie für automatische Verarbeitungswerkzeuge oder durch Text-Mining nicht zuverlässig vom flankierenden Text zu isolieren sind, zum anderen verfügen nicht alle Publikationen über ein separates Literaturverzeichnis. Auch sind strukturierte bibliografische Daten auf Autorenseite in den Geisteswissenschaften [Wikidata, GND] eher noch die Ausnahme denn die Regel. Aber es herrscht – hier legt Schöch zu Recht den Finger auf einen wunden Punkt – auf Seiten der Verlage [Wikidata, GND] bisher nur geringe Sensibilität, strukturierte bibliografische Daten zu übernehmen, wenn Autor*innen neben dem Textmanuskript über solche Daten (in Formaten wie BibTeX oder RDF, wie sie Zotero oder andere Tools exportieren) verfügen. Er stellt als Zwischenlösung BibTex als persistent zitierbares Datensupplement zu seinem Beitrag zur Verfügung.29
4. maschinenlesbare Auszeichnung der Entitäten (Akteure, Organisationen, Orte, Zeiten) und Konzepte in einem Beitrag (Abstrakta, Fachbegriffe)
Mit der vierten Anforderung schnürt Schöch ein umfangreiches Arbeitspaket, nämlich „[d]ie maschinenlesbare Auszeichnung der Entitäten und Konzepte”, bei der „[z]udem [...] solche Auszeichnungen nicht nur manuell durch die Autoren eingefügt, sondern verfügbare Werkzeuge zur automatischen Annotation [...] und zur Eingliederung in jeweils relevante Ontologien [Wikidata, GND] genutzt werden”.30 Schöch formuliert damit einen zweistufigen Prozess: (1) die Anreicherung mit Normdaten und (2) die Eingliederung in Ontologien [Wikidata, GND]. Im Rahmen dieses Experiments war Letzteres nicht zu leisten, und so mussten wir uns auf die Anreicherung mit Normdaten beschränken.
Da entsprechend breit aufgestellte kunsthistorisch orientierte Normdatenbanken (und Ontologien [Wikidata, GND]) ein Desiderat darstellen,31 fiel die Wahl auf die Gemeinsame Normdatei (GND) [Wikidata, GND]32 und Wikidata [Wikidata, GND]33. Beide Datenbanken enthalten sowohl Entitäten als auch Konzepte. Während die GND [Wikidata, GND] primär in deutscher Sprache angelegt ist, kann Wikidata [Wikidata, GND] unter einer einzigen ID Konzepte und Entitäten auch in mehreren Sprachen liefern und bietet, wenn auch aufgrund der teilweise stark variierenden Zahl der Sprachverknüpfungen in eingeschränktem Umfang, sprachübergreifende Anknüpfungspunkte.
JATS ermöglicht über das Bezeichner-Element <named-content> sowohl das Tagging von Normdaten als auch die Einbindung in Ontologien [Wikidata, GND] in Form von RDF-Tripeln und gibt hierzu Beispiele in der Dokumentation.34 Da in diesem Fall zwei Vokabulare eingebunden werden sollten, musste das Tagging gegenüber den dokumentierten Beispielen erweitert werden (Abb. 5).
Eine Entscheidung, die zu treffen war, liegt in den Unterschieden zwischen JATS und der Erweiterung BITS begründet: JATS 1.2 ermöglicht die Verknüpfung von Inhalten mit Vokabularen, die Übernahme in das Content Modell von BITS 2.0 steht jedoch aus und ist ein dringendes Desiderat. Da die Produktionspipeline für Sammelbände [Wikidata, GND] und Monografien [Wikidata, GND] auf JATS/BITS basiert, war ein Ausweichen auf TEI [Wikidata, GND] ohne Weiteres nicht möglich. So fiel die Entscheidung, die in JATS definierten Attribute für das Tagging von Vokabularen in das valide BITS-XML zu übernehmen und zu dokumentieren, auch wenn die publizierte BITS-Datei damit nicht mehr valide gegen BITS 2.0 ist.
Als Begriff wurde die grammatische Grundform in named-content/@vocab-term getaggt. Dort wo eine flektierte Form zur konventionellen Begriffsverwendung gehört („Normdaten” vs. „Normdatum”), wurde diese statt der Grundform getaggt. Die Überprüfung der Grundformen erfolgte in einem redaktionellen Schritt.
Unser optimistischer Plan sah vor, die so getaggten und auf die Grundform gebrachten Begriffe zur rein maschinellen Datenabfrage von GND [Wikidata, GND] und Wikidata [Wikidata, GND] zu verwenden und unsere XML-Daten [Wikidata, GND] anzureichern. Statt nur die Ressourcen-IDs einzutragen, sollten die vollständigen Uniform Resource Identifier (URI) eingetragen werden, um weiterverarbeitenden Werkzeugen direkten Zugriff auf die verlinkten Normdaten-Ressourcen zu ermöglichen.
Sowohl die GND-Abfrage [Wikidata, GND] über Lobid35 als auch die Abfrage von Wikidata liefern strukturierte JSON-Daten [Wikidata, GND] als Suchergebnisse zurück, die sich maschinell leicht auswerten lassen. In einigen Fällen sind GND [Wikidata, GND] und Wikidata bereits gegenseitig mit Normdaten verbunden, wie der nachfolgende Auszug aus dem JSON-Suchergebnis [Wikidata, GND] für den GND-Eintrag [Wikidata, GND] „Semantic Web [Wikidata, GND]” illustriert (Abb. 6).
Die Suche unseres einfachen, experimentellen Skriptes lieferte mit ca. 40 % Trefferquote erstaunlich wenig Treffer, von denen einige aufgrund von Kontextabhängigkeiten („Ontologie” als Lehre in der Philosophie vs. Netzwerk logischer Begriffsrelationen in der Informatik) oder Ähnlichkeiten (Frank Büttner, Kunsthistoriker [1944-2016] [Wikidata, GND] vs. Frank [Olaf] Büttner, Kunsthistoriker [*1942-]) falsche Ergebnisse lieferten. Teilweise waren Normdatenverknüpfungen unter Verwendung von Synonymen oder nahen, übergeordneten Klassenbegriffen zu finden; aufgrund der Mehrsprachigkeit von Wikidata half in einigen Fällen die Verwendung der englischen oder französischen Übersetzung. Die Anforderungen an einen automatischen Abfragealgorithmus sind also vergleichsweise hoch, sodass wir uns schließlich entscheiden mussten, die Ressourcen-URIs manuell zu suchen. Nach der manuellen Verknüpfung sah das Ergebnis wie folgt aus:
- 1145 verschiedene Normdatenmarkierungen im Buch
- 385 (33,6 %) konnten nicht mit der GND verknüpft werden
- 200 (17,5 %) konnten nicht mit Wikidata verknüpft werden
- 178 (15,5 %) konnten weder mit der GND noch mit Wikidata verknüpft werden.
Ausblick
Aus dem oben Ausgeführten werden mindestens zwei Dinge deutlich: Zum einen konnten wir mit dem experimentell an diesem Band erprobten Vorgehen – sowohl in organisatorischer als auch in technischer Hinsicht – erste Erfahrungen sammeln und eine ungefähre Vorstellung davon bekommen, mit welch großem zusätzlichen Aufwand die Herstellung dieses (zusätzlichen) Delivery-Formats verbunden ist. Zum anderen wurde recht bald deutlich, dass sich der vorliegende Tagungsband zwar eigentlich aufgrund seines Themas dafür eignete, an seinen Texten ein zukunftsweisendes Verfahren des digitalen Publizierens zu erproben, dass vor allem die hier versammelten Konzepte – sieht man aus dem Blickwinkel eine*r Kunsthistoriker*in auf das Ergebnis – allerdings vielfach über die Grenzen der Kunstgeschichte hinausreichen und sich deswegen weniger für eine Verknüpfung in ontologischen kunstwissenschaftlichen Netzwerken eignen als beispielsweise fachspezifische Lexika oder Inventare (für die beispielsweise mit CIDOC-CRM [Wikidata, GND] schon umfangreiche Anwendungen existieren).36
Aber über diese, sich auf den konkreten Band beziehenden Erkenntnisse hinaus ist klar: Eigentliche Wirksamkeit entfalten wissenschaftliche Publikationen als Forschungsdaten [Wikidata, GND] nur im Netzwerk mit anderen Publikationen. Lesende Maschinen bedürfen für ihr Training – anders als Menschen – sehr großer Datenmengen: Big Data.
Digitalisierungszentren und -projekte haben bis heute große Mengen an Content digitalisiert, mit Metadaten [Wikidata, GND] versehen und als Reproduktionen menschlichen Leser*innen zur Verfügung gestellt; die maschinelle Zugänglichkeit ist jedoch technisch und rechtlich oft unzureichend oder eingeschränkt. Konsequent weitergedacht, müsste die nächste Stufe die weitere Erschließung der Volltexte und ihre maschinelle Verfügbarmachung nach den FAIR-Prinzipien [Wikidata, GND] sein. Das von Schöch formulierte fünfstufige Maximalmodell ist, das haben auch wir anhand des vorliegenden Bandes gesehen, kein Modell für “Tag 1”. Es ist aber sehr wohl ein Modell für die kontinuierliche Fortschreibung und Anreicherung eines gemeinsamen, offenen wissenschaftlichen Textkorpus und die Weiterentwicklung entsprechender Erschließungskonzepte und -methoden durch die Wissenschaftscommunity. Dafür muss das wissenschaftliche Textkorpus aber zuerst einmal zugänglich gemacht werden, und zwar sowohl durch fachgerechte Digitalisierung als auch durch adäquate offene Lizenzierungsmodelle, die die Weiterverarbeitung explizit ermöglichen statt sie zu behindern. Digitalisierungszentren müssten hierzu ihre personellen Kompetenzen erweitern, Data Scientists und Computerlinguisten wären hier als Erstes zu nennen. Gleichzeitig wäre zu diskutieren, unter welchen Bedingungen bestehende Normdatensysteme zur verbesserten Nutzung durch die jeweiligen Fachdisziplinen erweitert und miteinander verknüpft werden könnten. Möglicherweise können hier Fachinformationsdienste wie arthistoricum.net [Wikidata, GND] – gegebenfalls auch im Kontext ihrer Einbindung in die gerade im Aufbau befindliche Nationale Forschungsdateninfrastruktur (NFDI) – eine Rolle bei der Vernetzung und Koordinierung von Projekten spielen, die auf diesem Gebiet Grundlagenarbeit leisten, und Fachwissenschaftler*innen eine Plattform bieten, die zu einer Konsensbildung in Bezug auf Begriffe, Definitionen und Methoden beitragen kann.
Die XML-Daten [Wikidata, GND] des Sammelbandes können unter https://doi.org/10.11588/data/XTLTCA aufgerufen werden.
ORCID®
Maria Effinger https://orcid.org/0000-0001-6396-4876
Frank Krabbes https://orcid.org/0000-0002-7597-7188
Medienrevolution und Kunstwissenschaft. Unter und vor dem Einfluss der Digitalisierung
Köbi [Jacob Burckhardt] hält sich wacker, es geht ihm besser. Er war schon genötigt, das letzte Mittel, Digitalis, zu gebrauchen und scherzte doch darüber: ‚Nun bin ich in den heiligen Bezirk des Digitalis eingetreten.‘ (Tagebucheintragung Heinrich Wölfflins vom 8. Mai 1894)1
Kunstgeschichte im Labor
Wer sich dem Bezirk der Digital Humanities nähert, gerät sogleich in die Spur, die zu Big Data [Wikidata, GND], Distant Reading, Scalable Reading, Distant Viewing, Image-Mining etc. führt. Auch beim letzten Kunsthistorikertag 2019, im Barcamp zu Digitalität und Kunstgeschichte, war der Sog der großen Zahlen zu spüren: „Dabei befand man, dass gerade im digitalen Raum eine Form des Distant Viewing, des Überblicks über Massen, möglich sei, wie sie analog nicht nachzuvollziehen sei. Allerdings konkretisierten sich diese Gedanken nicht.“2 Wenn man bedenkt, dass Lev Manovich, einer der führenden Digerati, bereits 2015 – und fünf Jahre zurück bedeutet im digitalen Zeitalter einen Regress in die Paläogeschichte – den nachhängenden Fächern wie der Kunstgeschichte voraussagte, „that these fields sooner or later will also go through their own ‘quantitative turns‘”3, dann heißt die Reaktion des Barcamp wohl later. Auch als ever rising wurde das Feld der digitalen Kunstgeschichte beschrieben. Aber das 2018 eingerichtete Schwerpunktprogramm „Das digitale Bild“ der DFG wird jetzt die Chance ergreifen, „die Chance einer grundlegenden epistemologischen und methodologischen Erneuerung der Kunstgeschichte und der bildorientierten Kulturwissenschaften unter den Vorzeichen der unausweislichen digitalen Wissensgenerierung“.4 Die Kunstgeschichte steht mit den Worten eines Mitglieds dieser Forschergruppe am „Scheideweg“.5
Bevor von dort die ersten Ergebnisse eingehen: Die Resultate der in Manovichs „lab“ angestellten Untersuchungen von „6000 paintings by French Impressionists, 20,000 photographs from MoMA photography collection, one million manga pages from manga books etc. etc.“ haben in der Kunstgeschichte keine grundstürzende Wirkung im Sinne eines Turns gezeitigt, vorausgesetzt, man konnte sie irgendwo zur Kenntnis nehmen. Aber über seine Van-Gogh-Studie kann man ein Wort sagen. Der Rechner untersuchte die Gemälde, genauer Reproduktionen derselben, vermutlich bei Google runtergeladen, nach den Graden ihrer Helligkeit und ihrer Farbsättigung. Manovich und Co. übertrugen die Laborwerte in den zweidimensionalen Raum der Koordinaten x = durchschnittliche Helligkeit und y = durchschnittliche Sättigung und legten zwei „feature spaces“ (Merkmalsräume) für die in Paris und die in Arles gemalten Bilder an. Ich deute die mit winzigen Repros gepixelten Flächen so: In Paris entstanden Werke, die in ihren Werten durchweg einen weiteren Abstand voneinander haben und auch in einzelnen Fällen extremere Positionen besetzen als die Produktion in Arles. Dort liegt alles viel enger beieinander und bildet einen zusammenhängenden Cluster. Man wird also behaupten dürfen, dass der lernende van Gogh in Paris verschiedenen Einflüssen ausgesetzt war und dass er in Arles, auf sich gestellt, zu seinem eigenen Stil fand.6 Manovich registriert ebenfalls die Unterschiede gleich Distanzen auf der Fläche, aber er ist damit nicht zufrieden: Er möchte zum Konzept eines „style space“7 vordringen und die Vermählung eines uralten mit einem ebenso alten, aber in der Kunstszene extrem gehypten Terminus feiern. Er lässt die Differenzen Differenzen sein und konstatiert eine für van Goghs Malstil charakteristische Überschneidungsmenge auf beiden Tafeln. Das können wir nur akzeptieren, wenn – gut wissenschaftlich – zwei oder drei Vergleichsuntersuchungen angelegt werden: 200 Poussins, 200 Gauguins, 200 späte Monets. Das ist eben das Problem mit den Digital Humanities: Der Rechner ist sehr schnell, die User möchten auch schnell sein. Maschinen treiben. Schon warten die 10 000 Manga-Illustrationen.
Manovich sagt: “But today, if we want to compare tens of thousands or millions of cultural artifacts […] we have no choice but to use computational methods.”8 Das ist nicht nur völlig richtig, sondern auch sehr human, denn wer wollte schon sein Leben mit Zählen, Messen und Sortieren verbringen. Wer an Quantitäten interessiert ist, braucht den Rechner und sucht nach den zählbaren „features“ seiner Objekte. Wer sich mit Farbe beschäftigt und nicht nur mit der Frage, wie viel davon die Bildfläche bedeckt, braucht die Originale, gute Aufnahmen und ebenso gute Reproduktionen sowie eine historische Ästhetik des Ausdrucksmittels Farbe. He or she has no choice.
The Digitized Turn
Neben dem Digital Turn [Wikidata, GND] existiert der Digitized Turn [Wikidata, GND], ein wenig verachtet und in den grundsätzlichen Erklärungen9 nicht vorkommend, aber realiter ist das der wichtigste Turn überhaupt. Er ist wahrhaft „unausweislich“, besser wohl: unausweichlich, denn an ihm haben wir alle teil, an ersterem nur wenige. Diese sagen, in den Worten der oben zitierten DFG-Forschergruppe, dass von „einer echten ‚digitalen Kunst-/Bildgeschichte‘ nur zu reden“ sei, wenn sie „sich von einer ‚digitalisierten‘ unterscheidet“. Das ist einerseits verständlich, weil man gerne etwas „Neues“ haben möchte, andererseits aber weltfremd und ungerecht – angesichts der enormen Mittel und Arbeitsleistungen, die in „Digitalisierungskampagnen“ gesteckt wurden und werden. Die ja manchmal Originale erschließen wie die einzigartige Website Closer to Van Eyck , die von der Getty Stiftung finanziert wurde. Im Alltag jedoch heißt Digitized Turn [Wikidata, GND], ganz eng auf die Kunstgeschichte in Deutschland bezogen: 2,1 Millionen digitalisierte Fotografien nach Kunstwerken und kulturellen Objekten in der Datenbank „prometheus“. „Nur“ ein Beispiel. Ich werde immer wieder emblematisch darauf anspielen, wohl wissend, dass es sehr viel mehr Repositorien und noch größere Bestände gibt, aber 2,1 Millionen Bilder (ohne Werbung) sind eine kritische Größe, um einige Fragen aufzuwerfen. Sehen wir einmal von den Retrievalfunktionen einer solchen Datenbank ab, die Bildform unserer Gegenstände hat sich nicht geändert beziehungsweise nur um einen Zwischenschritt verschoben: Wir benutzen Reproduktionen von Reproduktionen. Das ist der richtige Moment, um an Claus Pias zu übergeben, den Autor des wichtigsten Vortrags/Textes zu unserem Gegenstand. Der Titel ist: „Das digitale Bild gibt es nicht. Über das (Nicht-)Wissen der Bilder und die informatische Illusion“, das Jahr 2003, der Ort das Zentralinstitut für Kunstgeschichte in München. Pias, ein Medienhistoriker mit kunsthistorischem Background, fordert zu pragmatischer Nüchternheit auf:
„Das digitale Bild gibt es nicht. Wenn irgend etwas die Sache verfehlt, dann ist es unangebrachter Essentialismus. Was es gibt, sind ungezählte analoge Bilder, die digital vorliegende Daten darstellen: auf Monitoren, Fernsehern oder Papier, auf Kinoleinwänden, Displays und so fort. Und diese Daten selbst können auf verschiedenste Weisen entstehen: an Scannern oder in digitalen Kameras, an Grafiktabletts oder auf Tastaturen, aus Algorithmen oder in Kalkülen. Es gibt also etwas, das Daten ergibt (informationsgebende Verfahren), und es gibt etwas, das Bilder ergibt (bildgebende Verfahren), aber diese Dinge sind vollständig entkoppelt und gänzlich heterogen.“10
Wir lassen das erst einmal in seinem unprätentiösen Realismus stehen und gehen zu einer viel späteren Passage des Vortrags über, in der Pias darauf abhebt,
„dass die Medien ein Eigenleben haben, dass sie eine je besondere Herkunft und eine damit verbundene Rationalität haben, und dass sie diese ununterbrochen mitkommunizieren. Das heißt zum Beispiel, dass Kunstgeschichte nicht so einfach vom Dia eines Raffael auf den Scan eines Raffael umsteigen kann ohne sich Gedanken zu machen, woher die Technologien digitaler Bildverarbeitung kommen, was ihre besondere Logik ist […].“11
Das ist jetzt klassische Medientheorie, Eigen-Theorie der Medien, fast schon „Essentialismus“. „Mitkommunizieren“, ein schönes Verb, in das ein großer Teil von Marshall McLuhans Thesen passt. Es tut mir leid, auf das gering anmutende Problem hinzuweisen, aber bevor ich mir Gedanken über die Logik meiner digitalen Bilder und ihrer Repositorien mache, muss ich mir erst vergegenwärtigen, dass „der Scan eines Raffael“ der Scan eines Dias ist, das nach einer Fotografie oder noch wahrscheinlicher nach einer Abbildung in einem Buch angefertigt wurde, die ihrerseits … Und das führt zu der entscheidenden Ungenauigkeit in der Passage des ersten Zitats, wo es heißt: „Was es gibt, sind ungezählte analoge Bilder, die digital vorliegende Daten darstellen […].“ Ich verstehe das so, dass analoge Bilder digital dargestellt werden – passiv –, und frage erneut nach der primären Bild- und Präsentationsform der analogen Bilder und müsste, um Piasʼ Ansprüchen zu genügen, mit einer Theorie des „Eigenlebens“, der „Logik“ der Digitalisate kommen, aber ich denke, es reicht für unsere bescheidene Fragestellung, wenn wir behaupten, dass die Digitalversionen „mitkommunizieren“, was schon das Medium der analogen Fotografien mitkommuniziert hat: Routinen, die sich seit den Tagen Alinaris und seit den ersten Buchpublikationen mit fotografisch gewonnenen Abbildungen nicht nennenswert verändert haben. Für die Forschergruppe des DFG-Schwerpunktprogramms „Das digitale Bild“ ist ihr Gegenstand „ein auf der Grundlage eines digitalen Codes generiertes bildhaftes Phänomen“ mit drei „konkreten Eigenschaften“: Granularität, Manipulierbarkeit, Ubiquität. Instantaneität fehlt, aber egal, hier ist man zur Ontologie zurückgekehrt.12 Wer der Datenspender war, ob das Bild born-digital ist und mit welchen Einstellungen aufgenommen oder ob es von Fotos digital abgekupfert wurde, also digitalized in Umlauf ging, diese Fragen fallen quasi durch das Pixelraster. Die Poststrukturalisten hatten als eine der schwersten Sünden das Ursprungsdenken angeprangert. Das Problem ist jetzt aus der Welt. So etwas wie die alte Disziplin der Quellenkritik auch. Jeden Morgen, wenn wir den Screen zum Leben erwecken, ist er leer und rein.
Das einzig wirklich Neue seit den Tagen Alinaris ist die Farbe, auf die Fotografie und Kunstgeschichte so lange verzichtet haben – verzichten wollten (?). Rechner haben nichts gegen Farbe, sie haben überhaupt nichts gegen irgendetwas, aber in einem Punkt sind sie aus betriebsbedingten Gründen parteiisch und folgen der fotografischen Praxis: Dekontextualisierung [Wikidata, GND] heißt die gemeinsame Tendenz – Daten lösen ihre Bezugsobjekte von Orten, um sie ins ortlose Datenall zu versenden. In der Kunstgeschichte haben erst das Museum und dann die Fotografie die kulturelle Ressource local knowledge stark beschnitten. Gemeint ist mehr als Ortskunde, gemeint ist ein Wissen, das vor Ort über den Ort und seine Relevanz für Entstehung und Rezeption eines Kunstwerks gewonnen wird. (Die Metadaten der von uns im Computer hinterlegten Bilder geben ein Datum an. Digitale Bilder sind in der Terminologie der Medienwissenschaft „Ereignisse“.) Das digitale Bild gibt es nicht. Einverstanden, wir haben jetzt eine Unterstreichung hinzugefügt. Das digitalisierte Bild, eine von mehreren digitalen Bildformen, ist die Reproduktion einer vordigitalen Bildpraxis und zwar einer institutionell legitimierten.
Als Nutzer des Digitized Turn [Wikidata, GND] stehen wir also vor mindestens zwei Problemfeldern: Erstens, wir müssen uns zur großen Zahl der Angebote verhalten. Im einschlägigen Schrifttum wird diese Herausforderung auf vage Weise mit dem Schlagwort „Kanon“ verknüpft, so wenn es in der „Zürcher Erklärung zur digitalen Kunstgeschichte“ von 2014 heißt: „Der digitale Wandel erfordert eine kritische Reflexion der Methoden und Praktiken der Kunstwissenschaft, beispielsweise in Bezug auf Bildanalyse und Kanonbildung.“13 Zweitens, wir müssen realisieren, dass die im Überfluss zur Verfügung gestellten Materialien zum allergrößten Teil aus einer anderen Phase der Mediengeschichte stammen und deren Reduktionsstufen und Filter „mitkommunizieren“.
Kunstgeschichte: das Nachdenken über Fotografien
Es ist nicht ohne Interesse, in die Gründungsphase unseres Faches und damit zur ersten Medienrevolution zurückzugehen. Wir treffen dort auf eine Konstellation, in der ein neues Medium [Wikidata, GND] angenommen und die durch seinen Gebrauch veränderten Verhaltensweisen akzeptiert werden. „The Medium is the massage“, so lautete bekanntlich die von McLuhan selbst vorgenommene Erweiterung seines ersten Lehrsatzes: „The medium is the message.“ Jetzt geht es darum, wie ein Medium über Körper verfügt, wie es den Körper des Users und die Körper der im Medium transportierten Gegenstände modelliert („massiert“).
Um am Ende des 19. Jahrhunderts und dem Stand der Profession von damals anzufangen: Noch ist die Kunstgeschichte ein ambulantes, objektnahes Gewerbe: Man hat auf langen Reisen eine solide Denkmälerkenntnis erworben und untermauert sie zu den Zwecken der Forschung und Lehre mit Fotografien und auch schon mit Diapositiven. Das größere Publikum, die Leser, erreichte man aber noch nicht mit einer wechselseitigen Erhellung von Text und Bild. Jacob Burckhardts Schriften waren ohne fotografische Reproduktionen erschienen. Mit solchen konnte Heinrich Wölfflin, sein Nachfolger, zum ersten Mal in seinem zweiten Buch, Renaissance und Barock (1888), arbeiten – vier Illustrationen nach Fotografien erlaubte sein Münchner Verlag. Ebenda hatte Georg Meisenbach sechs Jahre zuvor das Autotypie-Verfahren [Wikidata, GND] erfunden, auch Netz- oder Rasterätzung genannt. Die Autotypie ist ein wenig gewürdigter, aber essenzieller Beitrag zur Medienrevolution in der Kunstgeschichte; sie wurde etwas früher eingeführt als die Diaprojektion, mit der Herman Grimm im Jahr 1891 in Berlin anfing. Wölfflin hatte das vergleichende Sehen nicht mit Dias, sondern mit Doppelillustrationen in seinem dritten Buch angefangen: Die klassische Kunst. Eine Einführung in die italienische Renaissance (1899). Dieses Werk hatte bereits 110 Abbildungen, allesamt Autotypien, davon rund 25 Vergleichspaare auf gegenüberliegenden Seiten positioniert. Dies ist eines der ersten kunsthistorischen Bücher, in denen jedes Argument durch ein fotografisches Bild gestützt wird und umgekehrt. Burckhardt 1888: „Tatsache ist, daß man in der Kunstgeschichte nur noch Fotografien glaubt und daß man dabei recht hat.“14
Zur Vorbereitung dieses Buches war Wölfflin wie üblich nach Italien gereist und unterrichtete von dort Burckhardt über den Stand seiner Forschungen. An einer Stelle versteigt er sich zu einer Grundsatzerklärung, die man unter die Urworte der Kunstgeschichte in ihrem Übergang zum selbständigen Fach markieren möchte. Wölfflin, der Forschungsreisende, schreibt an Burckhardt, den Pionier der kunsthistorischen Forschungsreise, mit Datum Florenz, 8. September 1895: „Überhaupt, das Reisen verflacht.“ Und erläutert das starke Verb wie folgt: „Es kommt mehr heraus, wenn man sich einen Nachmittag mit seinen Sachen ins Zimmer einschließt, als wenn man eine Woche lang durch den Krimskrams der Kirchen und Sammlungen herumzieht. In die Tiefe sollte man kommen, nicht noch mehr in die Breite.“15 Man weiß, worauf Wölfflin, hier in der für ihn ganz ungewöhnlichen Rolle des Wutgelehrten, abzielte, und was er auch erreichte: „Tiefe“ hieß der Grund, aus dem die Grundbegriffe wachsen und die Kunstgeschichte ihre Legitimation als wissenschaftliche Disziplin holen musste, als ein Fach, das im Besitz einer eigenen Methode mit allen Denkmälern umgehen kann, aber sie nicht mehr alle aufsuchen und kennen muss. Nach Wölfflin ist das eine Herangehensweise, „die sich mit der inneren Geschichte, sozusagen mit der Naturgeschichte der Kunst“ befasst. Die Voraussetzung für „Tiefe“ gleich „innere Geschichte“ ist aber offenbar, dass man sich „mit seinen Sachen im Zimmer einschließt“ – und sitzt, möchten wir ergänzen, weil jetzt in der Tat die sedentäre Phase der Wissenschaft beginnt, vom PC wie durch kein anderes Instrument befördert. Nicht mehr wird „mit den Kunstwerken direkt verkehrt“ (Burckhardt): Homeoffice heißt die neue Betriebsform. Fotografische Reproduktionen [Wikidata, GND], das sagt Wölfflin nicht dazu, sind aber selbstverständlicher Bestandteil der neuen Schreibszene. Fotografien helfen ihrerseits gegen die „Breite“, indem sie die Menge der Informationen stark reduzierten. Die Objekte wurden ohne Farbe, im Format identisch und ohne Kontext gegeben. Mit ihnen ließ sich am Schreibtisch sehr gut arbeiten, waren sie doch leicht zu handhaben und zum Vergleich nebeneinanderzulegen – und füllten sie die Fläche doch nur anders als die zu beschriftende Seite. Das ist die somatische Botschaft nach McLuhan: zwei flache, kalte Screens und ein still sitzender Akteur. Heinz Ladendorf hat viele Jahre später sein Fach als den „Stand des Nachdenkens über Fotografien“ definiert.
„Tiefe“ statt „Breite“: Das Problem mit der „Breite“ war, dass sie immer breiter wurde. Verursacht unter anderem von den Pionieren selbst. Burckhardt soll im Cicerone geschätzte 10.000 Objekte angesprochen haben. 1895 hatte das Buch seine sechste Auflage erreicht. John Ruskin wurde Anfang der 1870er Jahre krank, als er in Venedig sah, wie die englischen Touristen mit seinen Stones of Venice in der Hand die Stadt überfluteten und er fortan ohne den Entdeckerblick auskommen musste. Ein Blick, der 20 Jahre zuvor geschätzte 3000 Daten zeichnend und messend den Objekten abgewonnen hatte. Der Baedeker Oberitalien fing 1861 mit 300 Seiten an und war 1895 auf einen Umfang von 600 Seiten angewachsen. Das neue Fach Kunstgeschichte hatte seinen Teil zugesteuert: Der Kunsthistoriker Anton Springer und der Archäologe Reinhard Kekulé von Stradonitz lieferten in den 1870er Jahren Einleitungen zu den drei Bänden Ober-, Mittel- und Unteritalien. Kein Wunder also, dass die derart kunsthistorisch kolonialisierten Italiener organisatorisch und infrastrukturell Gewinn aus dieser Nachfrage schöpften. In Wölfflins Brief vom 8. September 1895 heißt es dementsprechend weiter: „Die Italiener ziehn hervor, was nur irgend ausstellungsmöglich ist, d. h. was einen Rahmen hat. Die kleinen Nester machen alle ihre Galerien, und die Reisenden sind dumm genug, das Zeugs anzusehn, obwohl es schon psychologisch überhaupt gar nicht möglich ist, so viel Kunst zu schlucken.“
Ein Movens bei der Gründung des Faches war also nicht nur der Wunsch nach einer eigenen Methodik. Man musste gleichzeitig und am besten durch diese Methode mit einer epochentypischen Überforderung fertig werden, einem Stress durch die stetig wachsende Zahl der Informationen, Eindrücke, Begegnungen, Kontakte, Einrichtungen, Konkurrenzen. Die Wissenschaftler fast aller Fächer halfen sich, indem sie das alte Anhäufen und Sammeln aufgaben und das bis dato entstandene Übermaß durch Modelle, Muster, Gesetze und Grundbegriffe radikal bändigten. Bei Wölfflin lief das Ganze auf die berühmten fünf mal zwei Grundbegriffe hinaus, bei dem Wiener Kollegen Alois Riegl auf haptisch-optisch sowie auf innere und äußere Einheit, bei August Schmarsow in Leipzig auf Rhythmus. Letzterer analysierte mit Hilfe dieses Gestaltungsprinzips die strukturelle Vielfalt mittelalterlicher Kirchen, während Riegl Produktionen des Kunsthandwerks wie Fibeln oder Teppiche beziehungsweise Standardaufgaben der Malerei wie Gruppenbilder begrifflich ordnete. Hervorzuheben ist, dass Riegl und Schmarsow sich auf anonyme Kunstwerke, auf sogenannte Verfallszeiten beziehungsweise Massenphänomene konzentrierten, die, wollte man sich nicht mehr mit schierer Bestandsaufnahme begnügen, eine neue methodologische Herausforderung bedeuteten. Wölfflin gab dem Unterfangen die Überschrift „Kunstgeschichte ohne Namen“, schien aber in den wichtigsten Schriften dagegen zu verstoßen, indem er Werke berühmter Künstler besprach, dies freilich fernab von einer Künstlergeschichte à la Giorgio Vasari oder Carl Justi. Er hatte in seiner Dissertation den gotischen Stil sowohl im Spitzbogen einer Kathedrale als auch im „spitzen Schuh mit Schnabel“ gefunden, also dieselbe „Haltung“ angetroffen – letzteres ein Begriff, der als „Habitus“ viele Jahrzehnte später von Pierre Bourdieu ebenfalls mit Blick auf die gotische Kathedrale (aber nicht auf den Schuh) erneuert wurde. „Im Kostüm kommt zuerst die Art zum Ausdruck, wie man sich halten und bewegen will, und es ist nicht schwer zu zeigen, dass die Architektur mit dem Zeitkostüm übereinstimmt.“16So können wir Wölfflin auch unter die zählen, die annehmen, dass Stil sich „zuerst“ und am besten in den Erzeugnissen offenbare, die als anonyme Gegenstände einer „Naturgeschichte der Kunst“ angehören. So wurde das neue Mengenproblem auf geniale Weise gelöst: Der Formalismus erkannte dieselben Gestaltungsprinzipien überall und gerade dort, wo die Gegenstände wirklich massenhaft vorkommen, jenseits des Kanons. Das verweist kultur- und sozialgeschichtlich auf zweierlei: auf mehr Demokratie (oder Egalisierung) und auf eine Aktualisierung der Ästhetik in den Zeiten der Massenproduktion.
Kunstgeschichte ohne Orte
Die „Kunstgeschichte ohne Namen“ ist auch eine Kunstgeschichte ohne Orte. Die parallele Evolution von Ortlosigkeit und Bilderfülle gehört seit Benjamin zu den Gemeinplätzen der Medienwissenschaften. Orte sind komplex, vieldimensional, passen nicht auf den „Screen“ und sind sitzend nicht zu erfahren. Wenn man den lapidaren Satz liest, den der späte Wölfflin – man möchte sagen: der Kunstgeschichte ins Stammbuch schreibt: „Das isolierte Kunstwerk hat für den Historiker immer etwas Beunruhigendes“, dann denkt man automatisch an Selbstkritik, an eine späte Skepsis gegenüber der fortschreitenden Autonomisierung des Kunstwerks. „Er wird versuchen“, fährt Wölfflin fort, „ihm Zusammenhang und Atmosphäre zu geben.“ Ist damit das gemeint, was wir heute unter Kontext – physischer Kontext, kulturgeschichtlicher Kontext – verstehen? Nein, ist es nicht: Ein „Glücksgefühl“ stelle sich für den Interpreten ein, schreibt Wölfflin, „wenn sich für den Blick […] die Dinge klar nach Ursprung und Verlauf darstellen“.17 Das kommt der grundsätzlichen Forderung an die Kunsthistoriker gleich, „das einzelne Werk“ „in die überpersönlichen Ordnungen einzustellen“.18 „Zusammenhang und Atmosphäre“ entstehen aus dem „Gänsemarsch der Stile“, wie Wilhelm Pinder, ein Schmarsow-Schüler, das selbstironisch nannte, wiederum an „Naturgeschichte“ appellierend, aber etwas sehr Künstliches meinend, eine nicht nur überpersönliche, sondern auch überräumliche Geschichte. But all history is local. (Or was local.)
Gestiftet wird der neue „Zusammenhang“ auf dem Papier der gedruckten Abbildungen, mit den Fotografien auf dem Schreibtisch und den Diapositiven im Hörsaal. Auf Dekontextualisierung [Wikidata, GND] antwortet Rekontextualisierung [Wikidata, GND]. Orte werden durch Positionen in einem Gedankenkontext ersetzt, so wird eine Kunstform beschnitten, die anders als die Dichtung als Konstituenten Zeit und Ort hat. Bildunterschriften heißen bei Wölfflin: Rembrandt, Vermeer, Raffael. Wie gleichgültig das Nicht-Gesagte letztlich ist, beweist sehr schön die Anmerkung am Schluss der „Grundbegriffe“ von 1915: „Ortsbezeichnungen ohne besondern [sic] Vermerk (Berlin, München etc.) bedeuten die großen öffentlichen Sammlungen.“ Es versteht sich danach von selbst, dass die Malerei allein durch Gemälde und nicht durch Fresken vertreten ist. Aber auf gewisse Weise geht Wölfflin ja nur in der Spur einer globalen Tendenz der Kunstentwicklung von der Höhlenmalerei hin zu den „heimatlosen Staffeleibilder[n]“ seiner Epoche, wie Fritz Schumacher sie einmal genannt hat. 50 Abbildungen der „Grundbegriffe“ zeigen Werke der Malerei und Zeichnung, die nicht mehr in den Regionen anzutreffen waren, in denen sie entstanden. Dem allgemeinen Ortsentzug in der Geschichte der Kunst und in der Kunstgeschichte entspricht dann die fotografische Beschneidung der Gemälde (ohne Rahmen) und der Bauwerke (ohne Kontext).
Es gibt ein bemerkenswertes und lehrreiches Gegenbeispiel. Als ich Anfang der 80er Jahre Brian O’Dohertys Inside the White Cube übersetzte und für den Druck vorbereitete, war ich sehr überrascht über die Qualität der Bildvorlagen, die mir der Autor schickte. Ich hatte die kleinen Abbildungen in Artforum gesehen, wo die Folge der Essays zwischen 1976 und 1981 erschienen war, und vielleicht gar nicht so viel Acht gegeben, als O’Doherty auch die Einstellung dieser Aufnahmen kommentierte, aber was nun vor mir lag, war eine Klasse von Fotografien für sich. Die New Yorker Galerien hatten ihm auffällig große hochqualitative Schwarz-Weiß-Fotografien zur Verfügung gestellt, Vorlagen für die Werbung zum Beispiel in Artforum. Es handelte sich durchweg um gallery shots, Aufnahmen der Werke in ihrem „natürlichen“, menschenleeren, klinisch weißen Habitat, der Kunstgalerie. Vorher und zur selben Zeit noch in Deutschland hatten die Galerien nur Bilder vom Werk „an und für sich“ ausgegeben. Für O’Doherty, der diese Fotos nicht in Auftrag gegeben hatte, bedeutete der gallery shot die Ikone der modernistischen Kunst, weil er völlig korrekt die Reziprozität von Werk und Galerie-Raum und Galerie-Wand abbildete und damit die Echokammer für die modernistische Ästhetik „mitkommunizierte“. Zwanzig Jahre später hat Karlheinz Lüdeking die Szene erneut besichtigt und festgestellt, dass es Kunstwerke wieder ohne Räume und auch Galerien ohne Räume gibt – im Internet hat sich die Ortlosigkeit dann vervollkommnet.19 Ich selbst würde als die Ikone, die den gallery shot ersetzt, die party pics der Vernissagen setzen, ein Medium nicht weniger aussagefähig als sein Vorgänger, aber jetzt nur noch kultursoziologisch verwertbar. Mit O’Dohertys Inside the White Cube wurde eine der erfolgreichsten kontextsensitiven Untersuchungen vorgelegt, ja man darf behaupten, dass sie nicht nur aus den richtigen Fotografien die richtigen kunsthistorischen Folgerungen zog, sondern dass sie auch aktiv eine eigene Kunstpraxis oder Methode unterstützte. Die Rede ist von Institutional Critique, ein Label, das es damals noch nicht gab.20 O’Doherty konnte die Anfänge dieser Richtung unter dem Dach der Konzeptkunst behandeln, ab ca. 1982 setzte dann eine zweite Welle ein. Eine Erfolgsstory mithin: kunsthistorisch, kunstkritisch, kunstpraktisch, und eine große Ausnahme.
Alle Ausdrucksmedien sind kontextrelativ; Kunst ist kontextrelativ und kontextsensitiv und bisweilen kontextreflektierend. Der Digitized Turn [Wikidata, GND] wiederholt, reproduziert den Kontextraub des 19. und 20. Jahrhunderts.21 Aber Kunstwerke leben amputiert trotzdem weiter, weil sie der Ort einer inneren Kontextbildung sind. Das macht sie scheinbar immun. Sie stellen den Betrachter vor einen fiktiven Situationskontext und üben ihn in die Kunst des situativen Verstehens ein. Bilder und Dichtungen sind die hohe Schule dieser Ein-sichten. So lautet nach Kontextraub der nächste Vorwurf, den man dem Formalismus machen muss, dass er anstandslos durch die Schicht der Blick- und Handlungsregie des inneren Kontextes hindurch in die „Tiefe“ der Kunstmittel und Gestaltqualitäten vordrang und diese verabsolutierte, dass er also gewissermaßen Naturgeschichte gegen Menschengeschichte ausgespielt hat. Korrektur: Riegl hat das im Holländischen Gruppenporträt anders gemacht.
Towards a textured and embodied knowledge of place
Man kann nicht behaupten, dass die Probleme einer „Kunstgeschichte ohne Orte“ und einer Entfernung von den Originalen unser Fach beschäftigen würden. Die Betreiber einer knowledge based on clicks mit Sicherheit nicht, aber die anderen? Das Kuriose ist, dass unsere Kollegen in der Historikerzunft heute intensiv darüber nachdenken, welche Folgen es hat, wenn der lange Aufenthalt in Archiven ersetzt wird durch den Zugang zu Quellen im Internet und durch deren Interpretation vom Homeoffice aus.22 Schon im Jahr 2000 hatte der Schriftsteller Nicholson Baker in Double Fold (deutsch: „Der Eckenknick“23) die Verluste durch Mikroverfilmung [Wikidata, GND] und anschließende Makulierung von Zeitungen und Zeitschriften beklagt – eine Maßnahme, die durch elektronische Reproduktion fortgesetzt wurde und nicht abgeschlossen ist. Baker machte darauf aufmerksam, was an sinnlicher und kontextueller Erfahrung verloren geht, wenn diese primären Quellen reformatiert werden. Jeder, der einmal Mikrofilme [Wikidata, GND] oder Mikrofiches [Wikidata, GND] benutzt hat, mittlerweile sind sie selbst von Ausmusterung bedroht, weiß von der fragmentierten und ortlosen Erscheinung des abgebildeten Materials und vermisst, was die Phänomenologie die Mitanwesenheit nennt: die Haptik des Papiers, das Layout, die Seite daneben, die Seite davor, das sogenannte Buch.
Und Baker hatte nicht einmal daran gedacht, dass Historiker früher in die Orte und Länder reisen mussten, an denen eine lokale Tageszeitung erschienen war, um sie in dortigen Bibliotheken und Stadtarchiven zu studieren, die Historiker der Vergangenheit also dorthin zurückkehrten, wo etwas geschehen war. Kunsthistoriker taten das ebenfalls und tun es immer noch, aber zunehmend seltener, seit zeit- und geldsparende Methoden wie Formalismus und Ikonografie sie der Mühen enthoben, und erst recht, seit das digitalisierte Universum der Kunst für jeden User einen Klick weit entfernt ist. Ars una, species mille lautete der Titel einer historischen italienischen Buchreihe, die in jedem Band sehr viele, sehr kleine Abbildungen unterbrachte. Heute müsste das Motto heißen: „Artes mille, species Google.“ Und in Klammern käme hinzu: „Non nota locum.” Ersetzen wir das Lateinische durch die Lingua franca des Englischen, dann heißt das: „Denn im Long Tail des Digitalen ist ein Gegenstand wenigstens vorhanden und nur noch einen Mausklick vom Jahrhundertwerk entfernt.“24
Es fällt also auf, dass die Kollegen aus der Historie so beredt von Verlusten sprechen, die wir Kunsthistoriker viel stärker empfinden müssten, aber nicht vortragen. Feldforschung [Wikidata, GND]. fieldwork ist ihr Wort, “fieldwork invites us to achieve a textured and embodied knowledge of place”; sie exponiere aber auch, so Shalini Puri, setze uns vor der Geschichte frei: ”When a researcher reads in a library, nobody is reading her back. When one reads in the field, one is constantly being scripted, being the object of a countergaze, and is thereby forced to confront not only one’s geographical but also one’s historical location.”25 Das klingt nach ethnologischen Feldstudien, ist aber von einer Kulturhistorikerin des „Globalen Südens“ geschrieben, deren Interessen bis in die Anfänge der Kolonialisierung zurückreichen.
Feldforschung in der Kunstgeschichte und museale Datenerfassung
Findet Feldforschung in der Kunstgeschichte des „Globalen Nordens“ noch statt? Seit 1981 läuft in der Bundesrepublik das größte Unternehmen dieser Art überhaupt, ein Projekt, das ortsspezifische Expertise, Kontextwissen und Reibung mit der Realwelt zu Voraussetzungen hat: Gemeint ist die Denkmaltopographie der Bundesrepublik Deutschland, die in 250 Bänden die Baudenkmäler in entsprechend vielen Kreisen und Stadtteilen erfasst, abbildet und gerichtsfest zum Denkmal deklariert. Man schätzt, dass es bei gleich dichter Aufnahme aller Regionen am Ende 800 Bände sein müssen. Es wird über den Fortschritt berichtet und über Kriterien diskutiert, aber über den Forschungsalltag der Akteure und der durch ihre Arbeit Betroffenen sowie über den Wert der von Puri hervorgehobenen „embodied knowledge of space“ erfahren wir nichts. Wieweit die Ergebnisse in den zuständigen Forschungszweigen verarbeitet wurden, ist ebenfalls schwer abzusehen. War und ist das Ganze ein Verwaltungsakt, eine Art Denkmalzählung, vom Auto aus „erfahren“ und fotografisch dokumentiert, die größte Sammlung von Fassaden weltweit?
Die Denkmaltopografie wurde ohne Computerunterstützung angefangen26, geriet aber in der Folgezeit immer tiefer in die Zeit der Big Data und in die wenig inspirierende Nachbarschaft vieler Datenbanken-Vorhaben, die als Maßnahmen-Projekte aufgelegt, aufgefüllt und zum Teil wieder aufgegeben wurden. Meist sind es Erhebungen der Sammlungsbestände, im Homeoffice an Fotografien durchgeführt, um die Mühen etwaiger Autopsie immer überflüssiger zu machen. Über Sinn und Stand der musealen Datenerhebung wird außerhalb der Fachverbände nicht gesprochen. In den Häusern selbst hört man nicht selten das Wort Datenfriedhof. Aber es ist klar: Die Maßnahmen haben sich verselbständigt, niemand kann zurück, und alle sind verpflichtet, das „kulturelles Erbe digital für die Öffentlichkeit verfügbar zu machen“.27 Das ist unangreifbar.
Und noch eines steht fest: Die vom Formalismus eingeleitete Egalisierung schreitet unaufhaltsam mit digitaler Unterstützung voran. Vermassung gleich digitale Vermessung der Kultur. Wenn Wölfflin die spitzen Schuhe der Zeit um 1200 neben die gotische Kathedrale stellte, stehen an dieser Stelle jetzt nur noch die Schuhe. Nein, das ist unfair: Was Schuhe angeht, wird selbstredend auch die nächsthöhere und modernere Objektklasse „eingepflegt“: „Bei dem vorliegenden Exemplar handelt es sich um eine mechanische Schuhweitmaschine (‚Stiefelspreitzer‘) ‚Eudora II D.R.P.a‘. Über einem verschraubbaren Fuß erhebt sich in schräger Lage die eigentliche Vorrichtung mit mehreren Drehrädern, mit deren Hilfe sich der zugehörige metallene Spreitzer in seiner Breite oder Höhe verstellen lässt, womit der eingespannte Schuh durch längeren Druck/Zug in einem Arbeitsgang in seiner Breite und Weite verändert werden kann (weiten, strecken, anpassen an spezielle Fußformen).“28
Es sind vor allem die kleinen kulturgeschichtlichen und die Spezialmuseen, die ihre Bestände digitalisieren, weil sie so am einfachsten zu Geld kommen und Personal halten können. Die öffentliche Hand öffnet sich automatisch, wenn „etwas mit dem Computer“ gemacht werden kann. Die „großen Häuser“ gehen oft den Weg der kulturgeschichtlichen Museen mit, weil ihnen von dort die Klassifikationen angegeben werden oder es einfach leichter ist. Wer sich im Portal Museen Nord, einem gemeinsamen Projekt des Museumsverbandes Schleswig-Holstein und Hamburg und digiCULT, der Kieler Kunsthalle nähert, stößt auf ein schönes Gruppenporträt von der Hand des Deutschrömers Detlev Conrad Blunck aus dem Jahr 1850.29 Vermutlich ist es als Vorzeigeobjekt gedacht. Außer technischen Angaben erfahren wir die Namen, Lebensdaten und Kurzbiografien („Julius [1848–1893], später Kaufmann in Odessa“) der fünf dargestellten Kinder des Neustädter Arztes Dr. Carl Krah. Wir können andere Werke des Malers anklicken und uns unter „Ähnliches Material“ und „Ähnliche Technik“ weitere Porträts und Ölbilder anschauen – das ist die klassische Zeigeart unter informatischen Bedingungen: lateral, mit dem Querhinweis auf anderes und Ähnliches. „From many things to many things“(Gary Flake). Das ist Amazon auf kulturwissenschaftlich: Andere User haben sich auch für diese Bilder interessiert. So viel zur „Breite“, wie steht es mit der „Tiefe“? Über dieses eine Bild werden wir mit den computeraffinsten Identifikationen, mit Namen und Zahlen abgespeist. Triumph des Logo- und Numerozentrismus [Wikidata, GND], gut für Familiengeschichte, Statistik, Demografie, Sozialgeschichte, gut für Weiterarbeit am Rechner. Nach solchen Erfahrungen möchte man Lev Manovichs oft tradierter These, Datenbanken seien die symbolische Form unseres Zeitalters, lieber nicht beitreten.30 Da werden spätere Generationen hoffentlich noch etwas anderes finden.
Interdisziplinarität aus dem Rechner?
Vielleicht soll diese Objektferne ja sein und verstanden werden als Überweisung aller Fragen an das Forum der Interdisziplinarität. Die Vertreter einer humanistischen Version von Digital Humanities sind von dem Junktim von Computer und Interdisziplinarität überzeugt. Für Hubertus Kohle ist als „disruptiver Faktor“ der neuen Geisteswissenschaften ausgemacht: „Sie fügen die in einem langen historischen Prozess in Kleinstdomänen ausdifferenzierten Disziplinen zu einem gemeinsamen Wissensraum zusammen, der kooperativ erschlossen wird.“31 Ganz ähnlich klingt der Historiker Wolfgang Schmale einige Jahre später – er schreibt immer OA, wenn er von Digital Humanities handelt, und meint damit nicht Oase, sondern Open Access [Wikidata, GND] – also letztlich doch Oase: „Das Interessante an OA ist die Frage, ob OA uns in den Stand versetzt, sinnvolle Forschungsfragen zu entwickeln, die nicht von der autoritativen Vorstrukturierung abhängen, sondern durch die Nutzung des Kreativitätspotenzials, das die Quantität zu eröffnen scheint, bestimmt werden.“32 Da ist der Autor zum Schluss wieder dorthin abgebogen, wo fast alle enden, bei den Quantitäten und ihrem „Kreativpotenzial“. Dabei möchte Schmale aber nicht in Richtung Datenzentrifuge gehen, sondern sich von etwas wegbewegen, von der „autoritativen Vorstrukturierung“ der Fächer nämlich – von ihr könnte uns „OA“ befreien. „Die nur interdisziplinär zu fassende Historizität von Kultur lässt sich digital besser darstellen als analog. […] ‚Fachidentität‘ ist dann obsolet.“33 Wieso Digitalität Interdisziplinarität fördert oder fordert, wäre zu diskutieren. Schmale spricht von einem „virtuellen Zusammenrücken“ der Stoffe und Disziplinen, welches im erstrebten Umfang nur im Web existiere. Das ist das berühmte Ein-Click-entfernt-Argument, das Kunstgeschichte und Theologie oder Germanistik miteinander verlinkt.
Interdisziplinarität musste nicht auf den Computer warten. Ihre hohe Wertschätzung ist eine Folge der 68er-Bewegung und wurde schon 15 Jahre praktiziert, bevor die PCs auch in den Geisteswissenschaften den Betrieb aufnahmen. Von daher gesehen kommt es etwas spät, wenn unsere Vordenker den Computer heute zum Garanten oder gar Initiator gewünschter Inter- und Transdisziplinarität erklären. Das stimmt, wenn man den Radius sehr eng zieht und behauptet, dass das Fach Digital Humanities sich fachübergreifend versteht. Nun muss man aber vorsichtig sein mit bedingungsloser Forderung nach Inter- und Transdisziplinarität. Seit 30 Jahren ist das die regierungsamtliche Leitlinie jeglicher Wissenschaftsförderung, jeder Ausschreibung und Fakultätsplanung. Muss uns jetzt auch noch die Maschine in diese Richtung schubsen (wenn sie es denn tut)? Wollen wir, dass Maschine und Ministerium von uns dasselbe wollen? Die Antwort ist: Wir müssen es wollen, weil Maschine und Ministerium in die genau entgegengesetzte Richtung ziehen.
Wenn der Ruf nach Interdisziplinarität zu Recht erfolgt, dann kommt er aus der Sorge um die extrem zunehmende Spezialisierung, die ebenfalls eine Erscheinung der Jahre nach 1968 ist und aus dem rasanten Ausbau des Betriebs der Wissenschaften resultiert. Wir beobachten eine progressive Zellteilung der Disziplinen, die zwei Gründe hat: die ewigen Ausdifferenzierungsprozesse der Moderne und ein Stellenmarkt, der ein Anbietermarkt ist und die „überschüssigen“ Abnehmer in Richtung der Nischen drängt. Ich lese im Moment das Buch eines Mannes, der eine Professur für „Geschichte der Machtformen in Westeuropa vom 13. bis 16. Jahrhundert“ innehat. Das ist nicht sein Spezialinteresse, sondern seine Venia. Dieses cut, cut, cut wird durch ein neues paste, paste, paste gekontert, das aber nicht wirklich synthetisiert, sondern nur den Rahmen aufmacht, der mehr Subdisziplinen aufnehmen kann. In der Kunstgeschichte heißt das Mandat World Art History und hat sich gleich wieder zu einer Community zusammengeschlossen, die vor allem eins tut: Metatexte über ihre zukünftige Arbeit zu schreiben.
Der Rechner ist zu einem nicht ganz unerheblichen Teil an der neuen Minidisziplinarität schuld. Als Inkubator brütet das Internet aus, was nach Kohle der Rechner gerade überwinden soll: Foren und Mitteilungsorgane für „in Kleinstdomänen ausdifferenzierte Disziplinen“. Irgendwann richten sich die Initiativen, auch Blasen genannt, zum Mini-Fach auf, verkaufen Elsevier oder Springer ihre Zeitschriften und unterstützen mit Summer Schools die Hotellerie vor allem im Mittelmeerraum.
Digital gleich: der Tod des (einen) Autors
Was bei Schmale die Kontiguität ist, die Entfernung des einen Klicks von der Nachbarwissenschaft, ist für Kohle die Ein-Klick-Distanz des unbekannten Werks vom Meisterwerk – dazu gleich mehr. Letzterer nimmt aber noch zwei weitere kanonische Größen ins Visier: den Text, sprich: „die Gediegenheit der hart errungenen Schöpfung“, und die daraus abgeleitete Textherrschaft des Autors. Die „Flüchtigkeit und Rekontextualisierbarkeit“ der Digitaltexte untergrabe aber deren Endgültigkeit, verlange vielmehr nach einem Open Access, der auch in das Innere unserer Datensätze hineingeht und an ihrer Genese teilnimmt. „In vernetzten Arbeitsumgebungen öffnen sich digitale Texte zwang- und aufwandlos dem Kommentar, der Annotation, ja der Koautorschaft. Man könnte so weit gehen zu behaupten, dass wissenschaftliche Texte in solchen vernetzten Umgebungen immer entschiedener zum Kommentar eines anderen wissenschaftlichen Textes werden, womit sie – das ist eine vielleicht überraschende Konsequenz – geradezu auf eine mittelalterliche Schreibpraxis des Kommentierens zurückverweisen.“34 Für Claire Bishop ist das nicht mittelalterlich, sondern bedeutet ein Endziel der digitalen Zukunft: “At its most utopian, the digital revolution opens up a new dematerialized, deauthored, and unmarketable reality of collective culture.”35
Ich bin sicher nicht in der einschlägigen Szene zu Hause und erwarte Widerspruch, was eine Autorschaft angeht, die „deauthored“ wäre, aber ich kenne solche Hypertexte nicht, nicht in unserer Wissenschaft, vor allem kann ich kein Begehren danach ausmachen, was überhaupt nichts mit den vermutlichen Qualitäten einer solchen kollektiven Schreibszene zu tun hat, sondern bedingt ist durch den aktuellen Stand des Wissenschaftssystems, das vom Computer entschieden in eine andere Richtung getrieben wird. In den Humanities, in allen Wissenschaften ist Textherrschaft prioritär. Warum ist das so? Weil der Text nachher zählt, karrieretechnisch, nachdem er gezählt wurde, den Regeln des Professor Hirsch folgend. Es ist letztlich nur konsequent, wenn die Bewertung der aus Nullen und Einsen bestehenden Aufsätze ebenfalls auf Zahlenbasis erfolgt: Registriert wird der bibliographische Hinweis auf ein Paper in den Fußnoten eines anderen Papers – und wenn der Autor im Haupttext sagt, dass die von ihm zitierte Arbeit Unsinn enthält, egal, der Apparat zählt weiter, und er rechnet in das Ranking des Papers das Ranking der Zeitschrift, die es zitiert hat, mit ein, und dieses Ranking wird aus der Zahl der Zitationen gewonnen, die auf dieses Organ verweisen. Zitationen sind die Bitcoins der Wissenschaften.36 Hubertus Kohle: „Zugespitzt formuliert: Daten im Internet tendieren dazu, Metadaten zu sein.“37
Bilderebbe
Erwin Panofskys witziges Wort, dass im Fach der gewinne, der die meisten Dias habe, hat sich erledigt. Kommen wir zu den möglichen Konsequenzen der Tatsache, dass wir nun alle gleichviel Folien haben können. Margarete Pratschke notiert dazu:
„Was die Gegenstände der ‚Kunstgeschichte‘ angeht, gilt es, auf verschiedenen Ebenen Phänomene einer digitalen ‚Bilderebbe‘ zu problematisieren. Anders als etwa die vermeintlichen ,Dekanonisierungseffekte‘, die mit der Digitalisierung verbunden werden, greift in der Regel in kunsthistorischen Projekten eine Einengung auf den Kunstkanon; eine andere Form der Bilderebbe, die wissenschaftspolitisch völlig ungelöst ist, zeigt sich in digitalen Publikationen, in denen aufgrund bildrechtlicher Restriktion die Forschungsgegenstände nicht gezeigt werden können (‚image not available online‘).“38
Damit sind zwei sehr unterschiedliche Reaktionen angesprochen. „prometheus“ gegen „Verwertungsgesellschaft Bild-Kunst“, könnte man den einen Konflikt überschreiben. Ich möchte zu einem Dauerkonflikt, der sich im digitalen Zeitalter weiter verschärft, kein Wort weiter verlieren. Was aber ist mit der „anderen Form der Bilderebbe“ und der „Einengung auf den Kunstkanon“? Das Versprechen hatte gelautet: „Mit seiner [des Computers] Hilfe wird es möglich, auch weniger bekannte, weniger beschriebene und weniger veröffentlichte Künstler und Kunstwerke in der Forschung zu berücksichtigen.“39 „ Entkanonisierungseffekte“ (Hubertus Kohle) zielen auf ein qualitatives Mehr und sind nicht mit Big Data [Wikidata, GND] und Distant Viewing zu verwechseln. „Demokratisierung“ lautet das Motto, mehr Künstler und Künstlerinnen wagen. Und das klingt wieder ganz nach 1968. Wenn ich mit diesem Wunsch, den Long Tail der Kunstgeschichte zu erkunden, an das August-Heft der Kunstchronik herangehe und die Liste der Themen von Dissertationen und Masterarbeiten durchschaue, habe ich den Eindruck, dass wir bald den Grund abgefischt haben. Klar, Entdeckungen kann man überall und jederzeit machen. Nothing beats fresh material. Vermehren und steigern müssen wir aber nicht nur die Daten, sondern vorrangig die Fragen, die das Interesse an anderem und Neuem anleiten.
Aber was bewirkt die heraufbeschworene „Bilderebbe“? Pratschke missbilligt diese Entwicklung, sie beschneide „die Forschung der Kunstgeschichte fundamental“ und bringe sie um die „Erträge der Kanonerweiterung seit dem Iconic Turn [Wikidata, GND]“. Gründe und Beispiele nennt die Verfasserin nicht. Aber es fällt nicht schwer, dem nachzuhelfen. Zunächst zur Geschichte: Die Kanonerweiterung fand statt, da war das Wort turn noch unbekannt, und an den Iconic Turn [Wikidata, GND] dachte niemand. Die erste Runde eröffnete der Formalismus, das habe ich oben dargestellt – Stichwort Schuhe. Die zweite Runde kam viele Jahrzehnte später. In Deutschland sprengten das Schulfach Visuelle Kommunikation und die Zeitschrift Ästhetik und Kommunikation (seit 1970) den „ Kunstkanon“ zugunsten massenmedialer Bilderwelten. In England fand Ähnliches unter dem Dach der Visual Culture Studies [Wikidata, GND] statt. Dann erst kamen der Iconic Turn [Wikidata, GND] und die Bildwissenschaften. Und danach die digitale Wende: „Recherchen in solchen Datenbanken lenken den Blick zwangsläufig von den großen Einzelwerken ab und favorisieren die Breite. Sie zeitigen einen entkanonisierenden Effekt. Gleichzeitig lassen sich die ‚Meisterwerke‘ in ein Verhältnis zur breiten Produktion setzen.“40 Das klingt sehr danach, dass hier der „Kunstkanon“ entkanonisiert wird und nicht wie in den zuvor angesprochenen Richtungen eine Ausweitung auf alle möglichen Bildmedien das Ziel ist. Pratschke würde das nicht genügen. An ihre Adresse und die vieler Antikanoniker radikaler Observanz müsste man freilich die Frage richten: Brauchen die Visual und Cultural Studies heute, da Hunderttausende in diesen Disziplinen mit Bildern arbeiten, noch weitere Unterstützung von der Kunstgeschichte? Würde man Film Studies oder Cultural Studies vorhalten, sie würden sich auf den Film- beziehungsweise den Kulturkanon beschränken? Und von den Befürwortern einer digital geförderten „Breite“ des „Kunstkanons“ würde ich wissen wollen: Wie groß darf/muss der sein? Die erste ist eine rhetorische Frage, die zweite eine echte. Warum der Kanon aus Sicht der digitalen Kunstgeschichte nicht „beschnitten“ werden darf, hat einen simplen Grund: Wer an das „Kreativpotenzial“ der großen Zahlen glaubt, wird sich jeder Beschränkung nach Kategorien oder Zeiten oder Maßstäben entgegensetzen. Qualität wird vor dem Tribunal des Rechners gleich wieder an die höchste Distanz der Quantität verwiesen: Google weiß nicht, welches der beste Text, das beste Bild ist. Die Zahl der Klicks „weiß“ es. Die Zahl ist die neue Richtschnur, auf Griechisch Kanon.
Mit der Zahl 2,1 Millionen, die Bilder aller Klassen, auch die wenig gewürdigten, umfasst, eingebracht von Hunderten von Zubringern, könnte man es eigentlich bewenden lassen. Niemand wird sie je durchklicken. Aber es werden die großen Repositorien rührend und der Hermeneutik des Misstrauens folgend nach Fehlendem und den geheimen Codes befragt. (Ich spreche hier nicht von den werbebasierten Big-Tech-Datenbankhaltern, gegen die ist jeder Verdacht gerechtfertigt.) Wie würde man diese Menge von 2,1 Millionen rekonstituieren, wann wäre der Pool wirklich voll?
Das „Kreativpotenzial“ der großen Zahl bestand und besteht vermutlich immer darin, dass sie die Forscher zwingt, Methoden zu erfinden, sie los zu werden, beziehungsweise Formate zu entwickeln, die ohne sie auskommen. Mit Technophobie hat eine solche Reaktion nichts zu tun. Statt Phobie rührt sich das richtige Bewusstsein, dass der Gegenstand geisteswissenschaftlicher Forschung das Partikuläre, der Sonderfall ist: „the idea […], that each particular erases/the luminous clarity of a general idea.“ Letztere zu entwickeln werden wir freilich nicht müde. Und wollen gleichzeitig nicht, dass „numbers“ sowohl an die Stelle von “each particular“ als auch der „general idea“ treten.41 Wenn die Ressourcen überbeansprucht werden, ideologisch und praktisch, rührt sich ein neuer Minimalismus. Die Geschichte unseres Faches liefert die Beweise. Heinrich Wölfflin hatte, wie zitiert, festgestellt, „dass es schon psychologisch überhaupt gar nicht möglich ist, so viel Kunst zu schlucken“. Seine Monografie über Albrecht Dürer, zuerst 1905 herausgekommen, hatte in ihren erweiterten Ausgaben zum Schluss 225 Abbildungen auf 370 Seiten. Damit war ein Stand erreicht, der auch heute nur ganz selten übertroffen wird, solange es sich um grundlegende wissenschaftliche Studien und nicht um Bildbände handelt. Hatten die Vordenker der tiefen, inneren Kunstgeschichte, der „Einheit der Sehformen“ doch dem Sog der „species mille“ nachgegeben? Ein Verhältnis von zwei Drittel Text zu ein Drittel Abbildung musste einem Teil der nächsten Generation unbefriedigend erscheinen. Die Stilhistoriker (Pinder, Hamann, Goldschmidt) erhöhten zwar noch die Schlagzahl, weil sie jetzt in neue Kunstlandschaften und Epochen ausschwärmten: Ein Handbuch der Kunstwissenschaft-Band Pinders hat 481 Abbildungen auf grob 500 Seiten. Auch die Ikonografen, etwas später beginnend, konnten eher mehr als weniger Bildbeispiele gebrauchen. Auch sie tendierten zur Bilderreihe und Bilderflut.
Das einzelne Kunstwerk und die Menge
Im Gegenzug beginnt nach 1918 die große Zeit der Einzelwerkbetrachtung und speziell von Analysen, durch die werknah neue Ansätze eingeführt und erprobt werden. Dies an einem einzigen Kunstwerk zu versuchen, hätte um 1900 niemand gewagt. Da galt es noch, Möglichkeitsräume auszukundschaften. Hans Sedlmayrs Aufsatz „Gestaltetes Sehen“ (1925) über Borrominis San Carlo alle Quattro Fontane fällt einem als erster Schritt in diese Richtung ein, ein Text, in dem der Autor mit großer Geste dem Fach Plätze und Aufgaben zuweist, also sehr viel mehr vorhat, als in Ruhe ein einziges Bauwerk zum Exempel zu erheben.42 Auch im Titel bleibt er sehr allgemein und verweist auf den nach Stil nächsten god term: Gestalt. Für dieses erste Fallbeispiel soll gelten, was Sedlmayr 1931 als Aufgabe der werkmonografischen Betrachtung ganz allgemein vortrug: „Sobald das einzelne Kunstwerk als eine eigene, noch unbewältigte Aufgabe der Kunstwissenschaft angesehen wird, steht es in mächtiger Neuheit und Nähe vor uns. Früher bloß Medium der Erkenntnis, Spur eines anderen, das aus ihm erschlossen werden sollte, erscheint es jetzt als eine in sich ruhende kleine Welt eigener und besonderer Art.“ 43 Sedlmayr eröffnet für unser Fach den Weg des Close Viewings, und er tut das etwa zur gleichen Zeit, da in England das Close Reading entwickelt wurde. Er dreht die Spirale noch weiter nach innen, als es Wölfflin für seine „innere Geschichte“ der Kunst getan hatte. Aber, und vor allem dieses Aber rechtfertigt den Blick auf den Text von 1925 – außer dass mit ihm ein Format begründet wird: Das Werk wird als Nukleus jener inneren Kontextbildung begriffen, auf die ich mich oben bezog. Sedlmayr setzt nicht bei den Gliedern, sondern bei den Einheiten an, er vergleicht also nicht wie Wölfflin den Renaissance- und den Barock-Baluster miteinander, sondern operiert mit Einheiten wie Jochen oder Travéen (die Betonung vor allem bei Einheiten liegt auf dem Plural). Diese ersten Gestalteinheiten werden dann in ihrer Aufbauleistung für ein jeweils größeres Ganzes betrachtet: Im Fall der römischen Kirche sind das die beiden Geschosse der Fassade und die zwei mal zwei Wandkompartimente des Inneren, allesamt dreiteilige, rhythmische Travéen. Mit diesem Ansatz ist der Durchbruch zur Dimension der Komplexität geschafft, die als Begriff damals der Kunstgeschichte noch nicht zur Verfügung stand. Komplexität als Interaktion zwischen Subsystemen (hier: Fassade und Inneres) ist genauso gegeben wie Interaktion innerhalb von Subsystemen (im Inneren geht das generative Prinzip nach Sedlmayr bis hinunter in die vorher nie beachtete Durchgestaltung der Chorschranken).44 Hätte der Autor jetzt noch den Hinweis des Titels „alle quattro fontane“ ernst genommen, wäre es ein Leichtes gewesen, auch die Interaktion mit dem städtischen Kontext einzubeziehen. Oder, im Inneren bleibend, das anschließende Kloster als Fortsetzung der Formideen der Kirche zu beschreiben. „ Kunstkanon“? Mit Borromini und San Carlo hatte sich Sedlmayr wohl ganz bewusst einen „exotischen“ Fall vorgenommen, der schwer unter dem Dach des Oberbegriffs Stil unterzubringen war.
Einheiten sind der Kontrapunkt des Quantums. Sie wurden zum Markenzeichen der Geisteswissenschaften in der Phase nach dem Formalismus: Übersetzt hießen sie Rhythmus, narrative Bauform, Struktureinheit, Typus, Physiognomie. Einzelwerkbetrachtung war die angestammte Vortragsform. Die Geschichte dieses Formats und der Methode des Close Viewings ist noch zu schreiben. Sie wurden bald zu Konvention, Pflichtübung, „Kunststück“, mussten aber in jeder Generation neu erprobt werden. Ich erinnere nur an die folgenden Reihen: Der Kunstbrief (angefangen als „eine kleine Feldbücherei“, 1943–1949, 57 Hefte, Gebr. Mann), Der Kunstbrief (eine Reihe zu Werken der Berliner Museen, seit 2001, Gebr. Mann), Reclams Werkmonographien zur bildenden Kunst (1956–1970, 149 Hefte), Das Kunststück (1984–2000, 103 Hefte, Fischer). Es wäre ein Vergleich sehr wünschenswert und eine Nachbetrachtung der Gründe, warum Reihen abgebrochen wurden. Seit den 1980er Jahren wuchs eine ebenfalls minimalistische Bewegung heran, die dem Genre Konkurrenz machte und nicht in Reihen auftrat. Ich spreche von Arbeiten, welche mit ganz wenigen Bildern und Daten auskommen, wenn sie ihre Überlegungen zu Grundfragen der Bildästhetik und Medialität entwickeln. Ein Theorem, ein Werk, in dieser Reihenfolge. Um nur ein Beispiel zu nennen: Frederic Jamesons berühmte Analyse des Bonaventure-Hotels in Los Angeles, die mit dem Titel Postmodernism, or: The Cultural Logic of Late Capitalism einen großen Aktionsradius ankündigte.45 Ein Vergleich San Carlo – Bonaventure-Hotel wäre höchst reizvoll.
Wer 149 oder 103 Einzelwerkbetrachtungen organisiert, engt den Kanon nicht über Gebühr ein. Wie das heute aussieht, in einer Zeit, da der Begriff selbst unkanonisch ubiquitär und inflationär geworden ist, macht das folgende Beispiel sehr deutlich. Vertreter der Generation „prometheus“, wenn ich das so sagen darf, haben ein Kompendium in vier Bänden unter dem Titel Kanon Kunstgeschichte herausgegeben beziehungsweise durch Beiträge unterstützt. Es erschien 2015 im renommierten Fink-Verlag, einem Haus, das 40 Jahre lang den Kanon des Antikanonischen vielstimmig vortragen ließ. Die Herausgeber Kristin Marek und Martin Schulz müssen sich natürlich wappnen und wehren gegen die Unterstellung, eine „starr normierende Richtschnur“ anwenden zu wollen – das wäre der Wortsinn von Kanon. „Vielmehr geht es um Veränderung, Flexibilität, Partialität innerhalb eines relativen Rahmens, [...] dessen Zentren und Ränder stetig verschoben, überschritten, vermischt, neu ausgelotet und verhandelt werden“.46 Das bemühte Aufzählen verrät die Schwierigkeiten, eine stringente Auswahl vor den allgegenwärtigen Instanzen Diversity und Multiplicity begründen zu müssen. So formuliert, ist der Kanon die flexibelste Sache der Welt, verhandelbar eben. Aber das Ganze hätte man auch „Ein Jahrtausend Kunstgeschichte in Einzeldarstellungen“ nennen können. Der Kanon Kunstgeschichte setzt sich nämlich aus profunden Analysen von lauter Einzelwerken zusammen – ein Beitrag wie „Das Lotharkreuz im Aachener Domschatz“ steht dann für ein Kapitel zur mittelalterlichen Schatzkunst. Nicht der Kanon, hier hyperkorrekt verkleidet als Flow, ist das eigentlich kanonische Element, die gute alte Werkbetrachtung ist es. Man schreibt sie heute am Computer, aber es ginge auch ohne, vielleicht sogar besser.
Das unbedingte Kunstwerk, digital
Einzelwerkbetrachtung kann aber auch wieder ostentativ auftreten wie einst bei Sedlmayr und schlägt sich dann konventionell auf die Seite derer, die das Kunstwerk als „unbedingtes“, als „kleine Welt eigener und besonderer Art“ verstehen wollen. Was wohlgemerkt nicht für das Projekt Kanon Kunstgeschichte gilt, aber für dezidierte Einzelwerkbetrachter wie Martin Heidegger und Max Imdahl. Das jüngste Beispiel ist die von Michael Brötje kurz vor seinem Tod unter dem Titel BildSchöpfung vorgelegte dreibändige Sammlung von 24 Werkanalysen, die von Duccio bis Barnett Newman reichen. Im Fall von Brötje bin ich mir sicher, dass man sein opus magnum in 30 Jahren als die totale Negation eines avancierten Standes computergestützter Kunstgeschichte feiern oder abschießen wird. Er selbst kämpft nicht gegen die digitale Wende, sondern rückwärts gewendet gegen eine Kunstgeschichte, die zur Erklärung eines Kunstwerks so niedere Faktoren wie Gesellschaft, Zweck, Ideologie, Geistesgeschichte etc. heranzieht. „Erweiterungsbedingt“ habe das Fach seinen, den einzig erlaubten Begriff verloren: den Begriff der Kunst. Erweiterung im Sinne eines erweiterten Kunstbegriffs und einer interdisziplinären Kunstwissenschaft geht schon weit, aber nicht weit genug. Man merkt diesem Autor an, dass er als neuer Noah nicht allein das Format Werkmonografie, sondern auch die wichtigsten Exemplare der Species Kunst in seine Arche retten will, wo draußen schon die Daten- und Bilderflut anbrandet. Den Titel BildSchöpfung müsste man in dieser Perspektive noch einmal neu verstehen; die Tatsache aber, dass ausgerechnet Brötjes Werk auch online zugänglich ist und damit als reformatiertes dem Schöpfungsakt der digitalen Ära unterworfen wurde, ist ein kleiner Schock.
Das „unbedingte Kunstwerk“ und seinen Eintritt in den „unheiligen Bezirk des Digitalis“ zu denken, das wäre ebenfalls wahrhaft „disruptiv“, wenn wir für Brötje den existential-hermeneutischen Anspruch der Kunstbetrachtung beibehalten wollen. Aber andererseits und jetzt von der Maschine her gedacht: Wäre der Computer nicht höchst aufnahmebereit für das „unbedingte Kunstwerk“; wäre ein solches nicht um einen Qualitätssprung rechnergerechter als die Lebensdaten der fünf Kinder des Dr. Krah aus Neustadt? Und hatten wir nicht eingangs mit Manovichs Laboranalyse der Gemälde van Goghs das Klassenziel „unbedingt“ schon fast erreicht? Farbdaten, Flächenwerte, Histogramme: hier kommen wir einer „Naturgeschichte der Kunst“ sehr nahe. Margarete Pratschke überschreibt das Kapitel „Methoden“ in „Digitalität und Kunstgeschichte“ mit „Digitale Faltenzähler: Form(analyse ) und Formalisierung“ und fährt fort:
„Die digitalen Methoden in der Kunstgeschichte stehen vor dem Problem, Bilder (Form) numerischen Verfahren (Formalisierung) zugänglich zu machen. Kritisch besehen folgen viele digitalen Projekte unhinterfragt den Prämissen formanalytischer Verfahren, denen man vorwerfen könnte, längst überholte (digitale) Faltenzählerei, Morphologie oder bestenfalls Ikonografie zu betreiben.“47
Könnte? Digitale Kunstgeschichte führt dahin zurück, wo Kunstgeschichte als Wissenschaft anfing. Als sie die Dimension Form in den Vordergrund rückte, weil sie kälter, langsamer, näher an den positiven Wissenschaften war als Inhalt, der in der meinungsfreudigen Zeit um 1900 zu weltanschaulichem Exzessen verleitete.48 Doch um Wölfflin zu verteidigen: Bei seinen Kategorien offene und geschlossene Form spielen Rahmung und Format eine Rolle. Größen, die eigentlich nicht zur „Naturgeschichte“ gehören. Der Elementarismus von heute geht viel tiefer in das „Innere“: „Mit der Möglichkeit, das Bild beziehungsweise eine digitale Reproduktion auf der Ebene kleinster Gestaltungseinheiten (‚Pixel‘) direkt zu adressieren, ergibt sich die Chance, analytisch in das Innere des Bildes einzudringen.“49
Parallel zum Rechner mit dem Rechner arbeiten
Bilderebbe war 1925 die Reaktion auf Bilderflut und ist dann Aktion geworden und normales Bekenntnis zu erfolgreichen analogen Traditionen. Am „Scheideweg“ jedoch, den die digitale Revolution eröffnet, macht sich ein neuer Minimalismus stark, bewusst oder unbewusst Widerstand gegen die Epochenmaschine leistend. Das habe ich versucht kurz zu skizzieren, aber das Tableau der Schulen, die am Computer Kunstwerke betrachten, lesen und schreiben und „die Problematik des für die Kunstgeschichte gültigen und sie bestimmenden Kanons“50 nicht für eine Problematik ersten Ranges halten, kann noch weiter aufgemacht werden. Ich spreche zuerst von der seit den neunziger Jahren datierenden Zuwendung zum Bild im Plural, also zu Zyklen, Clustern, Bildsystemen, Polyfokalitäten, multimedialen Systemen, Serien, Bild-Ensembles, Hyperimages und Gesamtkunstwerken. Solche Forschungen sind eine Korrektur am Kult des Einzelwerks und sind ihrerseits bereit, das singuläre Werk als „Anordnung verschiedener Bildelemente“ mit in eine Gesamtbetrachtung mehrteiliger Bildformen aufzunehmen.51 Der früher oft angewandte Begriff des Einheit stiftenden Programms ist aber viel älter als der Computer. Was jedoch den Konnex mit dem Rechner angeht: Die Bild-im-Plural-Forschung arbeitet mit der Virtualität, man könnte auch sagen: mit dem Grundrauschen der 2,1 Millionen Digitalisate im Rücken, und spürt von dort den Realismus ihres Tuns, dies zumal seit der Zeit, da Windows zu Windows wurde und an die Errungenschaften der Malerei des 15. Jahrhunderts aufschloss und viele Bilder und Bildchen gleichzeitig einbettete. Eine analog-digitale Parallelaktion findet statt, ohne gegenseitige Abhängigkeit der Akteure Rechner und Interpret. Das ließe sich auch für die Bildwissenschaft behaupten, welche die Zahl nicht der Bilder, sondern der bildgebenden Verfahren und Medientypen und damit den Gegenstandsbereich der Forschung enorm erweitert hat. In dieser Position entfaltet sich das Fach quasi analog zur ständigen Entfaltung der Möglichkeiten des Rechners. Oberbegriffe wie Programm, Modularität und Medialität bürgen bei den beiden Verfahren für eine exemplarische Vorgehensweise, der Aufwand an Abbildungen fällt unter Bilderebbe.52 Es geht dabei nicht um eine Missachtung von Massenphänomenen – das versuchte dieser Beitrag an vielen Stellen zu zeigen. Es geht um eine andere und vielleicht darf man sagen, nachhaltige Art ihnen zu begegnen.
Die universale Medienmaschine generiert ihren universalen Gegenstand
Nun kann man sich alle möglichen Freiheiten zum Rechner herausnehmen, und es könnte doch sein, dass die Differenz zum Digitalen unter der am Keyboard klappernden Hand zur digitalen Differenz oder Digitalität wird. Die müsste sich eigentlich auch und jederzeit ergeben, wenn man im Homeoffice arbeitet, schreibt und forscht und sich weder als Pionier noch als Verächter alles Digitalen beweisen will, ein Low-End-User halt, wie es in der Branche heißt. Man könnte dann vom Digital-Unbewussten sprechen, in Anlehnung an Benjamins Begriff vom Optisch-Unbewussten. Low End gleich Hidden End?
Es kam mir ein Text unter, der im Bestreben, nicht ein weiteres Paper, sondern ein großer Aufsatz zu werden, als idealtyischer Aufsatz im Zeitalter seiner elektronischen Pro- und Reproduzierbarkeit endete.53 Das Thema dieser zuerst bei Academia.edu (21 Millionen Papers, 100 Millionen User) eingestellten Arbeit ist der Bamberger Reiter, und das scheint nicht in Richtung digitale Differenz zu gehen, sondern schon wieder auf Re-Kanonisierung hinauszulaufen. Man muss freilich sehen, dass auch der neutrale und mit allem vollgestopfte Computer Re-Kanonisierung betreibt. Bibliometrische Beobachter von Open-Access-Zeitschriften stellen fest, dass Open Access keineswegs ökologische Vielfalt zur Folge hat; es werden stattdessen immer weniger Papers immer häufiger zitiert. Man nennt das die Googlization der Wissenschaften. In unserem Fall könnte man sagen, dass der Gegenstand der Arbeit selbst Hashtag- oder Tag-Qualitäten hat. Diese Höhe baut der Autor in Form eines Literaturberichts nach – acht Seiten sind es hier, im Normalfall eines Academia.edu-Papers weniger. Man verachte gerade diese Übung nicht als Traditionsrest. Es ist richtig, dass ein solches Resümee eigentlich gegen die genuine Möglichkeit der Hypertextualität verstößt, indem es die vielen Prätexte in einen traditionell linearen Forschungsbericht einspeist, aber so leicht lässt sich das Digital-Unbewusste nicht vergraulen. Zumindest nicht in diesem Fall, der möglicherweise ein Vorbote ist für vieles.
Der Apparat, welcher es dem Cliqueur und der Cliqueuse beim Literaturbericht ermöglicht, von einer Textebene zur nächsten und zurück in Sekundenschnelle zu wechseln, könnte mit dieser Wahrnehmung der Prätexte und Daten auf die Konstitution des Haupttextes abfärben. Grenzenlose Disponibilität ist gegeben, ohne Zweifel, ist aber immer noch zu funktionalistisch gedacht. Der Punkt ist: Wann und wie feiert und streichelt das Meta- und Multi-Medium Computer sich selbst? Dann würden wir von Digitalität pur sprechen. Unser Text referiert wie gesagt auf acht Seiten die Forschungsgeschichte; Heinz Gockel hatte dies 2006 auf 80 Seiten getan, aber die Länge ist nicht das Entscheidende, sondern der Titel und die Zielsetzung: „Der Bamberger Reiter. Seine Deutungen und seine Deutung”. Mit „seine Deutung“ meinte Gockel seine eigene, die letztgültige Deutung. Das entspricht dem marktgängigen Academia.edu-Paper, welches den Fächer der fortuna critica, wie in Italien der Literaturbericht heißt, gönnerhaft aufschlägt, um ihn dann um so entschiedener wieder zuzuklappen und mithilfe einer angesagten Methode und einer prestigebesetzten Autorität zu einer Deutung zu gelangen. Unser Autor dagegen lässt den Fächer einfach offen und verabsolutiert die Pluralform beziehungsweise führt sie ad infinitum, die einzige Domäne, die der Rechner als überlegen anerkennt. Anders als Gockel würde dieser Autor titeln: „Der Bamberger Reiter. Seine Deutungen sind seine Deutung“. Einer der drei Könige, Kaiser Konstantin, Friedensfürst, König Stephan von Ungarn, König Konrad III., König Philipp von Schwaben, der Endzeitkönig der Apokalypse etc. etc.: Fehlt uns ein Wissen, das der mittelalterliche Mensch hatte, um die Figur zu identifizieren? Die Antwort ist Nein: “This article […] argues that the sculpture was intentionally devised to produce a pure simulacrum (neither an historical nor an allegorical figure) receptive to the imaginative horizons of the viewers.” Also keine Identität, sondern ein “pures Simulacrum“, das der „Spekulation der Betrachter“ angeboten wird: „a speculation of its viewers, a wax upon which the subjective expectations are stamped”. Das Wort „intentionally“ deutet auf die traditionelle Instanz der Intention – des Künstlers? Des Auftraggebers? Muss offenbleiben, aber wirklich bedeutsam ist die Freiheitserklärung an die Adresse des Betrachters. Open Access [Wikidata, GND] zum Offenen Kunstwerk bereits in der ersten Hälfte des 13. Jahrhunderts!
Nun ist wohl nicht daran gedacht, dass der Betrachter von damals die Liste der oben aufgeführten Aspiranten im Geiste durchging und sich entschied; er hat wohl nur „irgendetwas“ assoziiert, „eine imaginäre Realität, von der Skulptur erzeugt“. Die lange Liste ist das Ergebnis historischer Forschung des 19. bis 21. Jahrhunderts; sie entsteht weitab vom Hohen Mittelalter, und an ihr ist – zumindest für diesen Autor – nur eines wichtig: ihre Vielzahl. Diese macht die meisten Interpreten nervös und erregt in ihnen nur den Wunsch nach Eindeutigkeit. Ihn aber inspiriert sie dazu, ihre Aktualität gewissermaßen von dem Medium sanktionieren zu lassen, das er im Moment benutzt. Was durch den Computer gegangen ist, nimmt „unter der Hand“, „technisch konstituiert“ notwendig die Gestalt des plurale tantum an. Man muss das dann „nur noch“ anerkennen und folgern, dass es immer so weiter geht und „subjektive Bedeutungen“, „living, changing, and imaginative meanings“ unablässig produziert werden. Damit ist eine höhere, eine transzendente Form des Vielen erreicht, qualitativ unendlich überlegen dem Extrakt, den Data-Mining aus den 1,8 Millionen Papers pro Jahr und den 2,1 Millionen Digitalisaten gewinnen könnte. Die Form der Vielheit ist als Inhalt anerkannt.
Der Rechner macht sich nicht nur bei der Bereitstellung und Kommunikation von allem nützlich. Wenn im Fall des Bamberger Reiters nicht entschieden und die Nichtlösung zur Lösung erklärt wird, dann erkennt sich das Universalgerät in dieser Universalfigur wieder und gelangt zu einer Nicht-Identität, die ohne Grenzen auskommen muss. Hans-Joachim Lenger hat das in seinem „Essay zur Differenz“ schon 2001 so erklärt: „Weil der Computer Simulation jedes anderen Mediums ist ‚und sonst nichts‘, ist er Rahmung als Zerfall jeder Rahmung oder, wie sich ebenso sagen ließe: Rahmung dieses Zerfalls jeder Rahmung.“Lenger fährt fort: „Er ‚ist‘ Universalmaschine, mit der sich die imago des Universellen selbst destruiert.“ Das können wir für diesen ganz besonderen Fall nicht unterschreiben, denn hier hat die Universalmaschine ihre imago geschaffen. „Er montiert Zitate und noch sich selbst als Zitat.“ So stimmt es wieder.
Über die Autorinnen und Autoren
Matteo Burioni ORCID iD https://orcid.org/0000-0002-6891-885X ist Leiter der Arbeitsstelle München des Corpus der barocken Deckenmalerei in Deutschland, LMU München. Forschungsschwerpunkte: Kunst- und Architekturgeschichte Italiens.
Maria Effinger ORCID iD https://orcid.org/0000-0001-6396-4876 ist Leiterin der Abteilung Publikationsdienste der Universitätsbibliothek Heidelberg, Geschäftsführerin von Heidelberg University Publishing (heiUP), Fachreferentin für Kunstgeschichte (arthistoricum.net), Co-Sprecherin NFDI4Culture. Schwerpunkte: Elektronisches Publizieren im Open Access, digitale Editionen, kulturelles Erbe und Digital Humanities.
Johannes Grave ORCID iD https://orcid.org/0000-0003-0106-6522 ist Kunsthistoriker und Hochschullehrer. Forschungsschwerpunkte: Temporalität des Bildes und der Bildrezeption; Praktiken des Vergleichens; Kunst, Kunsttheorie und Kunstgeschichte um 1800; italienische Malerei der Frührenaissance; französische Malerei des 17. bis 19. Jahrhunderts.
Christian Gries ORCID iD https://orcid.org/0000-0003-4186-3614 ist Kunsthistoriker und Medienentwickler. Arbeitsschwerpunkte: Digitalisierung, digitale Strategien, Audience Development und Outreach.
Anne Helmreich ORCID iD https://orcid.org/0000-0003-3026-988X ist Associate Director bei der Getty Foundation, Kunsthistorikerin. Forschungsschwerpunkte: Geschichte des Kunstmarkts, Provenienzforschung, Kunst und Wissenschaft, visuelle Kultur des neunzehnten Jahrhunderts, Digitale Kunstgeschichte.
Wolfgang Kemp ist Kunsthistoriker und Emeritus der Universität Hamburg. Forschungsschwerpunkte: Geschichte und Theorie der Fotografie, Narratologie, Rezeptionsästhetik.
Hubertus Kohle ORCID iD https://orcid.org/0000-0003-3162-1304 ist Kunsthistoriker an der LMU München und beschäftigt sich vor allem mit der deutschen und französischen Kunst des 18. bis frühen 20. Jahrhunderts.
Frank Krabbes ORCID iD https://orcid.org/0000-0002-7597-7188 ist Verlagshersteller und Literaturwissenschaftler. Er ist in der Universitätsbibliothek Heidelberg für die Buch- und Zeitschriftenproduktion zuständig.
Bernd Kulawik ORCID iD https://orcid.org/0000-0002-2083-6118 ist selbständiger Architektur- und Musikhistoriker und IT-Projektentwickler. Arbeitsschwerpunkte: Architektur der Renaissance und Antikenrezeption, italienische Musik um 1600, Nietzsche, Digital Humanities und insbesondere langfristige Datensicherheit.
Andrea Lermer ORCID iD https://orcid.org/0000-0002-3206-4418 ist Kunsthistorikerin und wissenschaftliche Redakteurin, seit 2016 Managing Editor des RIHA Journals, des E-Journals der International Association of Research Institutes in the History of Art.
Pipa Neuman ist Betriebswirtin und Kunsthistorikerin, ehemalige Editorial Director Arts, Verlag Walter de Gruyter / Deutscher Kunstverlag.
Claudie Paye ORCID iD https://orcid.org/0000-0001-8759-8575 ist Historikerin und wissenschaftliche Mitarbeiterin an der Universitätsbibliothek der LMU München. Forschungsschwerpunkte: Open-Access-Publizieren, politische Kommunikation im napoleonischen Zeitalter, Digital Humanities.
Grischka Petri ORCID iD https://orcid.org/0000-0002-2548-449X ist Kunsthistoriker und Jurist. Forschungsschwerpunkte: Kunst des 19. Jahrhunderts, Kunstgeschichte Großbritanniens, Druckgrafik, Urheberrechtsgeschichte, historische Kunstmarktforschung, Kunstrecht, Ikonologie der Elasmobranchii.
Christof Schöch ORCID iD https://orcid.org/0000-0002-4557-2753 ist digitaler Geisteswissenschaftler und Romanist. Forschungsschwerpunkte: Computational Literary Studies inkl. Aufbau digitaler Ressourcen, Datenerschließung, quantitative Textanalyse; französische Literatur; Open Science.
Christine Tauber ORCID iD https://orcid.org/0000-0001-8565-6997 ist verantwortliche Redakteurin der Kunstchronik in der Forschungsabteilung des Zentralinstituts für Kunstgeschichte und Hochschullehrerin an der LMU in München. Forschungsschwerpunkte: Französische Kunst der Frühen Neuzeit und des 19. Jahrhunderts.
Wolfgang Ullrich ORCID iD https://orcid.org/0000-0002-8308-163X ist Kulturwissenschaftler und freier Autor. Forschungsschwerpunkte: Geschichte und Kritik des Kunstbegriffs, Bildsoziologie, Konsumtheorie.
Schlagwortregister
Register
Einführung
ORCID®
Theorie
Reichtum oder Wildwuchs? Über einige Entwicklungen in der kunsthistorischen Publikationslandschaft und die Rolle der Zeitschriften
Zum Hiat zwischen Theorie und Praxis
Jüngere Entwicklungen im kunsthistorischen Publikationswesen
ORCID®
Publizieren, um – nicht – gelesen zu werden?
ORCID®
Living Documents statt totes Holz. Alternative Publikationsformen im Kontext der Digital Literacy
Neue Handlungsspielräume
Sichtbarkeit und Reichweite
Handlungsfelder
Der Impact
Von Digital Literacy und Online Reputation Management
Ein Projekt im Kontext der Digital Literacy der Landesstelle für die nichtstaatlichen Museen in Bayern
ORCID®
Kathedrale oder Basar? Überlegungen zu einer neuen IT-Infrastruktur (nicht nur) für die Digitale Kunstwissenschaft
Einleitung
Warum überhaupt eine neue IT-Infrastruktur?
Ein Lösungsvorschlag
Fazit
ORCID®
Kunsthistorische Publikationen und Bildrechte zwischen dem BGH-Urteil zu Museumsfotos (2018) und der Umsetzung der Richtlinie (EU) 2019/790. Alte Probleme, neue Entwicklungen
Die Diskussion um den Lichtbildschutz für fotografische Reproduktionen von Kunstwerken bis zum Urteil des BGH
Das Verfahren Reiss-Engelhorn-Museen gegen Wikimedia und Nutzer
Die Richtlinie (EU) 2019/790 und deren Umsetzung bis 7. Juni 2021
ORCID®
Open Access für die Maschinen
Aktuelle Debatten um Open Access
Wissenschaftliche Publikationen als Daten
Linked Open Data für die Kodierung von Inhalten
ORCID®
Praxis
The Museum Scholarly Catalogue in the Internet Age
ORCID®
Modelle des Open-Access-Publizierens an der Universitätsbibliothek der LMU München
ORCID®
E-Journals in der Kunstgeschichte. Anmerkungen zur Politik des Open Access, neuen Redaktionsaufgaben und Finanzierungsfragen
E-Journals in der Kunstgeschichte, 1999 bis 2019
Open Access – die wissenschafts- und gesellschaftspolitische Perspektive
E-Journals – aus Sicht von Autoren, Lesern, Redaktion und Technik
Finanzierungsmodelle für den Gold Open Access
ORCID®
Wie es Euch gefällt. Kunstwissenschaftliches Publizieren im Verlag De Gruyter
Die Zukunft des kunstwissenschaftlichen Publizierens
Open-Access-Publizieren bei De Gruyter
Herausforderungen durch Open Access
Individuelle Open-Access-Modelle
Überlegungen zur „Kunstchronik“ und ihrer publizistischen Zukunft
ORCID®
Neue Formen des kunsthistorischen Publizierens jenseits von Aufsatz und Monografie. Die Publikationsdatenbank des Corpus der barocken Deckenmalerei in Deutschland
Das digitale Corpus: Die barocke Deckenmalerei
ORCID®
Making-of: Die “Zukunft des elektronischen Publizierens” als Experimentierfeld
Die Vision
Die Ausgangslage
Mehr als „nur” ein PDF?
Das Experimentierfeld
Die redaktionelle Umsetzung
Die technische Umsetzung
Ausblick
ORCID®
Medienrevolution und Kunstwissenschaft. Unter und vor dem Einfluss der Digitalisierung
Kunstgeschichte im Labor
The Digitized Turn
Kunstgeschichte: das Nachdenken über Fotografien
Kunstgeschichte ohne Orte
Towards a textured and embodied knowledge of place
Feldforschung in der Kunstgeschichte und museale Datenerfassung
Interdisziplinarität aus dem Rechner?
Digital gleich: der Tod des (einen) Autors
Bilderebbe
Das einzelne Kunstwerk und die Menge
Das unbedingte Kunstwerk, digital
Parallel zum Rechner mit dem Rechner arbeiten
Die universale Medienmaschine generiert ihren universalen Gegenstand
Über die Autorinnen und Autoren