Medienrevolution und Kunstwissenschaft. Unter und vor dem Einfluss der Digitalisierung
Köbi [Jacob Burckhardt] hält sich wacker, es geht ihm besser. Er war schon genötigt, das letzte Mittel, Digitalis, zu gebrauchen und scherzte doch darüber: ‚Nun bin ich in den heiligen Bezirk des Digitalis eingetreten.‘ (Tagebucheintragung Heinrich Wölfflins vom 8. Mai 1894)
Kunstgeschichte im Labor
Wer sich dem Bezirk der Digital Humanities nähert, gerät sogleich in die Spur, die zu Big Data [Wikidata, GND], Distant Reading, Scalable Reading, Distant Viewing, Image-Mining etc. führt. Auch beim letzten Kunsthistorikertag 2019, im Barcamp zu Digitalität und Kunstgeschichte, war der Sog der großen Zahlen zu spüren: „Dabei befand man, dass gerade im digitalen Raum eine Form des Distant Viewing, des Überblicks über Massen, möglich sei, wie sie analog nicht nachzuvollziehen sei. Allerdings konkretisierten sich diese Gedanken nicht.“ Wenn man bedenkt, dass Lev Manovich, einer der führenden Digerati, bereits 2015 – und fünf Jahre zurück bedeutet im digitalen Zeitalter einen Regress in die Paläogeschichte – den nachhängenden Fächern wie der Kunstgeschichte voraussagte, „that these fields sooner or later will also go through their own ‘quantitative turns‘”, dann heißt die Reaktion des Barcamp wohl later. Auch als ever rising wurde das Feld der digitalen Kunstgeschichte beschrieben. Aber das 2018 eingerichtete Schwerpunktprogramm „Das digitale Bild“ der DFG wird jetzt die Chance ergreifen, „die Chance einer grundlegenden epistemologischen und methodologischen Erneuerung der Kunstgeschichte und der bildorientierten Kulturwissenschaften unter den Vorzeichen der unausweislichen digitalen Wissensgenerierung“. Die Kunstgeschichte steht mit den Worten eines Mitglieds dieser Forschergruppe am „Scheideweg“.
Bevor von dort die ersten Ergebnisse eingehen: Die Resultate der in Manovichs „lab“ angestellten Untersuchungen von „6000 paintings by French Impressionists, 20,000 photographs from MoMA photography collection, one million manga pages from manga books etc. etc.“ haben in der Kunstgeschichte keine grundstürzende Wirkung im Sinne eines Turns gezeitigt, vorausgesetzt, man konnte sie irgendwo zur Kenntnis nehmen. Aber über seine Van-Gogh-Studie kann man ein Wort sagen. Der Rechner untersuchte die Gemälde, genauer Reproduktionen derselben, vermutlich bei Google runtergeladen, nach den Graden ihrer Helligkeit und ihrer Farbsättigung. Manovich und Co. übertrugen die Laborwerte in den zweidimensionalen Raum der Koordinaten x = durchschnittliche Helligkeit und y = durchschnittliche Sättigung und legten zwei „feature spaces“ (Merkmalsräume) für die in Paris und die in Arles gemalten Bilder an. Ich deute die mit winzigen Repros gepixelten Flächen so: In Paris entstanden Werke, die in ihren Werten durchweg einen weiteren Abstand voneinander haben und auch in einzelnen Fällen extremere Positionen besetzen als die Produktion in Arles. Dort liegt alles viel enger beieinander und bildet einen zusammenhängenden Cluster. Man wird also behaupten dürfen, dass der lernende van Gogh in Paris verschiedenen Einflüssen ausgesetzt war und dass er in Arles, auf sich gestellt, zu seinem eigenen Stil fand. Manovich registriert ebenfalls die Unterschiede gleich Distanzen auf der Fläche, aber er ist damit nicht zufrieden: Er möchte zum Konzept eines „style space“ vordringen und die Vermählung eines uralten mit einem ebenso alten, aber in der Kunstszene extrem gehypten Terminus feiern. Er lässt die Differenzen Differenzen sein und konstatiert eine für van Goghs Malstil charakteristische Überschneidungsmenge auf beiden Tafeln. Das können wir nur akzeptieren, wenn – gut wissenschaftlich – zwei oder drei Vergleichsuntersuchungen angelegt werden: 200 Poussins, 200 Gauguins, 200 späte Monets. Das ist eben das Problem mit den Digital Humanities: Der Rechner ist sehr schnell, die User möchten auch schnell sein. Maschinen treiben. Schon warten die 10 000 Manga-Illustrationen.
Manovich sagt: “But today, if we want to compare tens of thousands or millions of cultural artifacts […] we have no choice but to use computational methods.” Das ist nicht nur völlig richtig, sondern auch sehr human, denn wer wollte schon sein Leben mit Zählen, Messen und Sortieren verbringen. Wer an Quantitäten interessiert ist, braucht den Rechner und sucht nach den zählbaren „features“ seiner Objekte. Wer sich mit Farbe beschäftigt und nicht nur mit der Frage, wie viel davon die Bildfläche bedeckt, braucht die Originale, gute Aufnahmen und ebenso gute Reproduktionen sowie eine historische Ästhetik des Ausdrucksmittels Farbe. He or she has no choice.
The Digitized Turn
Neben dem Digital Turn [Wikidata, GND] existiert der Digitized Turn [Wikidata, GND], ein wenig verachtet und in den grundsätzlichen Erklärungen nicht vorkommend, aber realiter ist das der wichtigste Turn überhaupt. Er ist wahrhaft „unausweislich“, besser wohl: unausweichlich, denn an ihm haben wir alle teil, an ersterem nur wenige. Diese sagen, in den Worten der oben zitierten DFG-Forschergruppe, dass von „einer echten ‚digitalen Kunst-/Bildgeschichte‘ nur zu reden“ sei, wenn sie „sich von einer ‚digitalisierten‘ unterscheidet“. Das ist einerseits verständlich, weil man gerne etwas „Neues“ haben möchte, andererseits aber weltfremd und ungerecht – angesichts der enormen Mittel und Arbeitsleistungen, die in „Digitalisierungskampagnen“ gesteckt wurden und werden. Die ja manchmal Originale erschließen wie die einzigartige Website Closer to Van Eyck , die von der Getty Stiftung finanziert wurde. Im Alltag jedoch heißt Digitized Turn [Wikidata, GND], ganz eng auf die Kunstgeschichte in Deutschland bezogen: 2,1 Millionen digitalisierte Fotografien nach Kunstwerken und kulturellen Objekten in der Datenbank „prometheus“. „Nur“ ein Beispiel. Ich werde immer wieder emblematisch darauf anspielen, wohl wissend, dass es sehr viel mehr Repositorien und noch größere Bestände gibt, aber 2,1 Millionen Bilder (ohne Werbung) sind eine kritische Größe, um einige Fragen aufzuwerfen. Sehen wir einmal von den Retrievalfunktionen einer solchen Datenbank ab, die Bildform unserer Gegenstände hat sich nicht geändert beziehungsweise nur um einen Zwischenschritt verschoben: Wir benutzen Reproduktionen von Reproduktionen. Das ist der richtige Moment, um an Claus Pias zu übergeben, den Autor des wichtigsten Vortrags/Textes zu unserem Gegenstand. Der Titel ist: „Das digitale Bild gibt es nicht. Über das (Nicht-)Wissen der Bilder und die informatische Illusion“, das Jahr 2003, der Ort das Zentralinstitut für Kunstgeschichte in München. Pias, ein Medienhistoriker mit kunsthistorischem Background, fordert zu pragmatischer Nüchternheit auf:
„Das digitale Bild gibt es nicht. Wenn irgend etwas die Sache verfehlt, dann ist es unangebrachter Essentialismus. Was es gibt, sind ungezählte analoge Bilder, die digital vorliegende Daten darstellen: auf Monitoren, Fernsehern oder Papier, auf Kinoleinwänden, Displays und so fort. Und diese Daten selbst können auf verschiedenste Weisen entstehen: an Scannern oder in digitalen Kameras, an Grafiktabletts oder auf Tastaturen, aus Algorithmen oder in Kalkülen. Es gibt also etwas, das Daten ergibt (informationsgebende Verfahren), und es gibt etwas, das Bilder ergibt (bildgebende Verfahren), aber diese Dinge sind vollständig entkoppelt und gänzlich heterogen.“
Wir lassen das erst einmal in seinem unprätentiösen Realismus stehen und gehen zu einer viel späteren Passage des Vortrags über, in der Pias darauf abhebt,
„dass die Medien ein Eigenleben haben, dass sie eine je besondere Herkunft und eine damit verbundene Rationalität haben, und dass sie diese ununterbrochen mitkommunizieren. Das heißt zum Beispiel, dass Kunstgeschichte nicht so einfach vom Dia eines Raffael auf den Scan eines Raffael umsteigen kann ohne sich Gedanken zu machen, woher die Technologien digitaler Bildverarbeitung kommen, was ihre besondere Logik ist […].“
Das ist jetzt klassische Medientheorie, Eigen-Theorie der Medien, fast schon „Essentialismus“. „Mitkommunizieren“, ein schönes Verb, in das ein großer Teil von Marshall McLuhans Thesen passt. Es tut mir leid, auf das gering anmutende Problem hinzuweisen, aber bevor ich mir Gedanken über die Logik meiner digitalen Bilder und ihrer Repositorien mache, muss ich mir erst vergegenwärtigen, dass „der Scan eines Raffael“ der Scan eines Dias ist, das nach einer Fotografie oder noch wahrscheinlicher nach einer Abbildung in einem Buch angefertigt wurde, die ihrerseits … Und das führt zu der entscheidenden Ungenauigkeit in der Passage des ersten Zitats, wo es heißt: „Was es gibt, sind ungezählte analoge Bilder, die digital vorliegende Daten darstellen […].“ Ich verstehe das so, dass analoge Bilder digital dargestellt werden – passiv –, und frage erneut nach der primären Bild- und Präsentationsform der analogen Bilder und müsste, um Piasʼ Ansprüchen zu genügen, mit einer Theorie des „Eigenlebens“, der „Logik“ der Digitalisate kommen, aber ich denke, es reicht für unsere bescheidene Fragestellung, wenn wir behaupten, dass die Digitalversionen „mitkommunizieren“, was schon das Medium der analogen Fotografien mitkommuniziert hat: Routinen, die sich seit den Tagen Alinaris und seit den ersten Buchpublikationen mit fotografisch gewonnenen Abbildungen nicht nennenswert verändert haben. Für die Forschergruppe des DFG-Schwerpunktprogramms „Das digitale Bild“ ist ihr Gegenstand „ein auf der Grundlage eines digitalen Codes generiertes bildhaftes Phänomen“ mit drei „konkreten Eigenschaften“: Granularität, Manipulierbarkeit, Ubiquität. Instantaneität fehlt, aber egal, hier ist man zur Ontologie zurückgekehrt. Wer der Datenspender war, ob das Bild born-digital ist und mit welchen Einstellungen aufgenommen oder ob es von Fotos digital abgekupfert wurde, also digitalized in Umlauf ging, diese Fragen fallen quasi durch das Pixelraster. Die Poststrukturalisten hatten als eine der schwersten Sünden das Ursprungsdenken angeprangert. Das Problem ist jetzt aus der Welt. So etwas wie die alte Disziplin der Quellenkritik auch. Jeden Morgen, wenn wir den Screen zum Leben erwecken, ist er leer und rein.
Das einzig wirklich Neue seit den Tagen Alinaris ist die Farbe, auf die Fotografie und Kunstgeschichte so lange verzichtet haben – verzichten wollten (?). Rechner haben nichts gegen Farbe, sie haben überhaupt nichts gegen irgendetwas, aber in einem Punkt sind sie aus betriebsbedingten Gründen parteiisch und folgen der fotografischen Praxis: Dekontextualisierung [Wikidata, GND] heißt die gemeinsame Tendenz – Daten lösen ihre Bezugsobjekte von Orten, um sie ins ortlose Datenall zu versenden. In der Kunstgeschichte haben erst das Museum und dann die Fotografie die kulturelle Ressource local knowledge stark beschnitten. Gemeint ist mehr als Ortskunde, gemeint ist ein Wissen, das vor Ort über den Ort und seine Relevanz für Entstehung und Rezeption eines Kunstwerks gewonnen wird. (Die Metadaten der von uns im Computer hinterlegten Bilder geben ein Datum an. Digitale Bilder sind in der Terminologie der Medienwissenschaft „Ereignisse“.) Das digitale Bild gibt es nicht. Einverstanden, wir haben jetzt eine Unterstreichung hinzugefügt. Das digitalisierte Bild, eine von mehreren digitalen Bildformen, ist die Reproduktion einer vordigitalen Bildpraxis und zwar einer institutionell legitimierten.
Als Nutzer des Digitized Turn [Wikidata, GND] stehen wir also vor mindestens zwei Problemfeldern: Erstens, wir müssen uns zur großen Zahl der Angebote verhalten. Im einschlägigen Schrifttum wird diese Herausforderung auf vage Weise mit dem Schlagwort „Kanon“ verknüpft, so wenn es in der „Zürcher Erklärung zur digitalen Kunstgeschichte“ von 2014 heißt: „Der digitale Wandel erfordert eine kritische Reflexion der Methoden und Praktiken der Kunstwissenschaft, beispielsweise in Bezug auf Bildanalyse und Kanonbildung.“ Zweitens, wir müssen realisieren, dass die im Überfluss zur Verfügung gestellten Materialien zum allergrößten Teil aus einer anderen Phase der Mediengeschichte stammen und deren Reduktionsstufen und Filter „mitkommunizieren“.
Kunstgeschichte: das Nachdenken über Fotografien
Es ist nicht ohne Interesse, in die Gründungsphase unseres Faches und damit zur ersten Medienrevolution zurückzugehen. Wir treffen dort auf eine Konstellation, in der ein neues Medium [Wikidata, GND] angenommen und die durch seinen Gebrauch veränderten Verhaltensweisen akzeptiert werden. „The Medium is the massage“, so lautete bekanntlich die von McLuhan selbst vorgenommene Erweiterung seines ersten Lehrsatzes: „The medium is the message.“ Jetzt geht es darum, wie ein Medium über Körper verfügt, wie es den Körper des Users und die Körper der im Medium transportierten Gegenstände modelliert („massiert“).
Um am Ende des 19. Jahrhunderts und dem Stand der Profession von damals anzufangen: Noch ist die Kunstgeschichte ein ambulantes, objektnahes Gewerbe: Man hat auf langen Reisen eine solide Denkmälerkenntnis erworben und untermauert sie zu den Zwecken der Forschung und Lehre mit Fotografien und auch schon mit Diapositiven. Das größere Publikum, die Leser, erreichte man aber noch nicht mit einer wechselseitigen Erhellung von Text und Bild. Jacob Burckhardts Schriften waren ohne fotografische Reproduktionen erschienen. Mit solchen konnte Heinrich Wölfflin, sein Nachfolger, zum ersten Mal in seinem zweiten Buch, Renaissance und Barock (1888), arbeiten – vier Illustrationen nach Fotografien erlaubte sein Münchner Verlag. Ebenda hatte Georg Meisenbach sechs Jahre zuvor das Autotypie-Verfahren [Wikidata, GND] erfunden, auch Netz- oder Rasterätzung genannt. Die Autotypie ist ein wenig gewürdigter, aber essenzieller Beitrag zur Medienrevolution in der Kunstgeschichte; sie wurde etwas früher eingeführt als die Diaprojektion, mit der Herman Grimm im Jahr 1891 in Berlin anfing. Wölfflin hatte das vergleichende Sehen nicht mit Dias, sondern mit Doppelillustrationen in seinem dritten Buch angefangen: Die klassische Kunst. Eine Einführung in die italienische Renaissance (1899). Dieses Werk hatte bereits 110 Abbildungen, allesamt Autotypien, davon rund 25 Vergleichspaare auf gegenüberliegenden Seiten positioniert. Dies ist eines der ersten kunsthistorischen Bücher, in denen jedes Argument durch ein fotografisches Bild gestützt wird und umgekehrt. Burckhardt 1888: „Tatsache ist, daß man in der Kunstgeschichte nur noch Fotografien glaubt und daß man dabei recht hat.“
Zur Vorbereitung dieses Buches war Wölfflin wie üblich nach Italien gereist und unterrichtete von dort Burckhardt über den Stand seiner Forschungen. An einer Stelle versteigt er sich zu einer Grundsatzerklärung, die man unter die Urworte der Kunstgeschichte in ihrem Übergang zum selbständigen Fach markieren möchte. Wölfflin, der Forschungsreisende, schreibt an Burckhardt, den Pionier der kunsthistorischen Forschungsreise, mit Datum Florenz, 8. September 1895: „Überhaupt, das Reisen verflacht.“ Und erläutert das starke Verb wie folgt: „Es kommt mehr heraus, wenn man sich einen Nachmittag mit seinen Sachen ins Zimmer einschließt, als wenn man eine Woche lang durch den Krimskrams der Kirchen und Sammlungen herumzieht. In die Tiefe sollte man kommen, nicht noch mehr in die Breite.“ Man weiß, worauf Wölfflin, hier in der für ihn ganz ungewöhnlichen Rolle des Wutgelehrten, abzielte, und was er auch erreichte: „Tiefe“ hieß der Grund, aus dem die Grundbegriffe wachsen und die Kunstgeschichte ihre Legitimation als wissenschaftliche Disziplin holen musste, als ein Fach, das im Besitz einer eigenen Methode mit allen Denkmälern umgehen kann, aber sie nicht mehr alle aufsuchen und kennen muss. Nach Wölfflin ist das eine Herangehensweise, „die sich mit der inneren Geschichte, sozusagen mit der Naturgeschichte der Kunst“ befasst. Die Voraussetzung für „Tiefe“ gleich „innere Geschichte“ ist aber offenbar, dass man sich „mit seinen Sachen im Zimmer einschließt“ – und sitzt, möchten wir ergänzen, weil jetzt in der Tat die sedentäre Phase der Wissenschaft beginnt, vom PC wie durch kein anderes Instrument befördert. Nicht mehr wird „mit den Kunstwerken direkt verkehrt“ (Burckhardt): Homeoffice heißt die neue Betriebsform. Fotografische Reproduktionen [Wikidata, GND], das sagt Wölfflin nicht dazu, sind aber selbstverständlicher Bestandteil der neuen Schreibszene. Fotografien helfen ihrerseits gegen die „Breite“, indem sie die Menge der Informationen stark reduzierten. Die Objekte wurden ohne Farbe, im Format identisch und ohne Kontext gegeben. Mit ihnen ließ sich am Schreibtisch sehr gut arbeiten, waren sie doch leicht zu handhaben und zum Vergleich nebeneinanderzulegen – und füllten sie die Fläche doch nur anders als die zu beschriftende Seite. Das ist die somatische Botschaft nach McLuhan: zwei flache, kalte Screens und ein still sitzender Akteur. Heinz Ladendorf hat viele Jahre später sein Fach als den „Stand des Nachdenkens über Fotografien“ definiert.
„Tiefe“ statt „Breite“: Das Problem mit der „Breite“ war, dass sie immer breiter wurde. Verursacht unter anderem von den Pionieren selbst. Burckhardt soll im Cicerone geschätzte 10.000 Objekte angesprochen haben. 1895 hatte das Buch seine sechste Auflage erreicht. John Ruskin wurde Anfang der 1870er Jahre krank, als er in Venedig sah, wie die englischen Touristen mit seinen Stones of Venice in der Hand die Stadt überfluteten und er fortan ohne den Entdeckerblick auskommen musste. Ein Blick, der 20 Jahre zuvor geschätzte 3000 Daten zeichnend und messend den Objekten abgewonnen hatte. Der Baedeker Oberitalien fing 1861 mit 300 Seiten an und war 1895 auf einen Umfang von 600 Seiten angewachsen. Das neue Fach Kunstgeschichte hatte seinen Teil zugesteuert: Der Kunsthistoriker Anton Springer und der Archäologe Reinhard Kekulé von Stradonitz lieferten in den 1870er Jahren Einleitungen zu den drei Bänden Ober-, Mittel- und Unteritalien. Kein Wunder also, dass die derart kunsthistorisch kolonialisierten Italiener organisatorisch und infrastrukturell Gewinn aus dieser Nachfrage schöpften. In Wölfflins Brief vom 8. September 1895 heißt es dementsprechend weiter: „Die Italiener ziehn hervor, was nur irgend ausstellungsmöglich ist, d. h. was einen Rahmen hat. Die kleinen Nester machen alle ihre Galerien, und die Reisenden sind dumm genug, das Zeugs anzusehn, obwohl es schon psychologisch überhaupt gar nicht möglich ist, so viel Kunst zu schlucken.“
Ein Movens bei der Gründung des Faches war also nicht nur der Wunsch nach einer eigenen Methodik. Man musste gleichzeitig und am besten durch diese Methode mit einer epochentypischen Überforderung fertig werden, einem Stress durch die stetig wachsende Zahl der Informationen, Eindrücke, Begegnungen, Kontakte, Einrichtungen, Konkurrenzen. Die Wissenschaftler fast aller Fächer halfen sich, indem sie das alte Anhäufen und Sammeln aufgaben und das bis dato entstandene Übermaß durch Modelle, Muster, Gesetze und Grundbegriffe radikal bändigten. Bei Wölfflin lief das Ganze auf die berühmten fünf mal zwei Grundbegriffe hinaus, bei dem Wiener Kollegen Alois Riegl auf haptisch-optisch sowie auf innere und äußere Einheit, bei August Schmarsow in Leipzig auf Rhythmus. Letzterer analysierte mit Hilfe dieses Gestaltungsprinzips die strukturelle Vielfalt mittelalterlicher Kirchen, während Riegl Produktionen des Kunsthandwerks wie Fibeln oder Teppiche beziehungsweise Standardaufgaben der Malerei wie Gruppenbilder begrifflich ordnete. Hervorzuheben ist, dass Riegl und Schmarsow sich auf anonyme Kunstwerke, auf sogenannte Verfallszeiten beziehungsweise Massenphänomene konzentrierten, die, wollte man sich nicht mehr mit schierer Bestandsaufnahme begnügen, eine neue methodologische Herausforderung bedeuteten. Wölfflin gab dem Unterfangen die Überschrift „Kunstgeschichte ohne Namen“, schien aber in den wichtigsten Schriften dagegen zu verstoßen, indem er Werke berühmter Künstler besprach, dies freilich fernab von einer Künstlergeschichte à la Giorgio Vasari oder Carl Justi. Er hatte in seiner Dissertation den gotischen Stil sowohl im Spitzbogen einer Kathedrale als auch im „spitzen Schuh mit Schnabel“ gefunden, also dieselbe „Haltung“ angetroffen – letzteres ein Begriff, der als „Habitus“ viele Jahrzehnte später von Pierre Bourdieu ebenfalls mit Blick auf die gotische Kathedrale (aber nicht auf den Schuh) erneuert wurde. „Im Kostüm kommt zuerst die Art zum Ausdruck, wie man sich halten und bewegen will, und es ist nicht schwer zu zeigen, dass die Architektur mit dem Zeitkostüm übereinstimmt.“So können wir Wölfflin auch unter die zählen, die annehmen, dass Stil sich „zuerst“ und am besten in den Erzeugnissen offenbare, die als anonyme Gegenstände einer „Naturgeschichte der Kunst“ angehören. So wurde das neue Mengenproblem auf geniale Weise gelöst: Der Formalismus erkannte dieselben Gestaltungsprinzipien überall und gerade dort, wo die Gegenstände wirklich massenhaft vorkommen, jenseits des Kanons. Das verweist kultur- und sozialgeschichtlich auf zweierlei: auf mehr Demokratie (oder Egalisierung) und auf eine Aktualisierung der Ästhetik in den Zeiten der Massenproduktion.
Kunstgeschichte ohne Orte
Die „Kunstgeschichte ohne Namen“ ist auch eine Kunstgeschichte ohne Orte. Die parallele Evolution von Ortlosigkeit und Bilderfülle gehört seit Benjamin zu den Gemeinplätzen der Medienwissenschaften. Orte sind komplex, vieldimensional, passen nicht auf den „Screen“ und sind sitzend nicht zu erfahren. Wenn man den lapidaren Satz liest, den der späte Wölfflin – man möchte sagen: der Kunstgeschichte ins Stammbuch schreibt: „Das isolierte Kunstwerk hat für den Historiker immer etwas Beunruhigendes“, dann denkt man automatisch an Selbstkritik, an eine späte Skepsis gegenüber der fortschreitenden Autonomisierung des Kunstwerks. „Er wird versuchen“, fährt Wölfflin fort, „ihm Zusammenhang und Atmosphäre zu geben.“ Ist damit das gemeint, was wir heute unter Kontext – physischer Kontext, kulturgeschichtlicher Kontext – verstehen? Nein, ist es nicht: Ein „Glücksgefühl“ stelle sich für den Interpreten ein, schreibt Wölfflin, „wenn sich für den Blick […] die Dinge klar nach Ursprung und Verlauf darstellen“. Das kommt der grundsätzlichen Forderung an die Kunsthistoriker gleich, „das einzelne Werk“ „in die überpersönlichen Ordnungen einzustellen“. „Zusammenhang und Atmosphäre“ entstehen aus dem „Gänsemarsch der Stile“, wie Wilhelm Pinder, ein Schmarsow-Schüler, das selbstironisch nannte, wiederum an „Naturgeschichte“ appellierend, aber etwas sehr Künstliches meinend, eine nicht nur überpersönliche, sondern auch überräumliche Geschichte. But all history is local. (Or was local.)
Gestiftet wird der neue „Zusammenhang“ auf dem Papier der gedruckten Abbildungen, mit den Fotografien auf dem Schreibtisch und den Diapositiven im Hörsaal. Auf Dekontextualisierung [Wikidata, GND] antwortet Rekontextualisierung [Wikidata, GND]. Orte werden durch Positionen in einem Gedankenkontext ersetzt, so wird eine Kunstform beschnitten, die anders als die Dichtung als Konstituenten Zeit und Ort hat. Bildunterschriften heißen bei Wölfflin: Rembrandt, Vermeer, Raffael. Wie gleichgültig das Nicht-Gesagte letztlich ist, beweist sehr schön die Anmerkung am Schluss der „Grundbegriffe“ von 1915: „Ortsbezeichnungen ohne besondern [sic] Vermerk (Berlin, München etc.) bedeuten die großen öffentlichen Sammlungen.“ Es versteht sich danach von selbst, dass die Malerei allein durch Gemälde und nicht durch Fresken vertreten ist. Aber auf gewisse Weise geht Wölfflin ja nur in der Spur einer globalen Tendenz der Kunstentwicklung von der Höhlenmalerei hin zu den „heimatlosen Staffeleibilder[n]“ seiner Epoche, wie Fritz Schumacher sie einmal genannt hat. 50 Abbildungen der „Grundbegriffe“ zeigen Werke der Malerei und Zeichnung, die nicht mehr in den Regionen anzutreffen waren, in denen sie entstanden. Dem allgemeinen Ortsentzug in der Geschichte der Kunst und in der Kunstgeschichte entspricht dann die fotografische Beschneidung der Gemälde (ohne Rahmen) und der Bauwerke (ohne Kontext).
Es gibt ein bemerkenswertes und lehrreiches Gegenbeispiel. Als ich Anfang der 80er Jahre Brian O’Dohertys Inside the White Cube übersetzte und für den Druck vorbereitete, war ich sehr überrascht über die Qualität der Bildvorlagen, die mir der Autor schickte. Ich hatte die kleinen Abbildungen in Artforum gesehen, wo die Folge der Essays zwischen 1976 und 1981 erschienen war, und vielleicht gar nicht so viel Acht gegeben, als O’Doherty auch die Einstellung dieser Aufnahmen kommentierte, aber was nun vor mir lag, war eine Klasse von Fotografien für sich. Die New Yorker Galerien hatten ihm auffällig große hochqualitative Schwarz-Weiß-Fotografien zur Verfügung gestellt, Vorlagen für die Werbung zum Beispiel in Artforum. Es handelte sich durchweg um gallery shots, Aufnahmen der Werke in ihrem „natürlichen“, menschenleeren, klinisch weißen Habitat, der Kunstgalerie. Vorher und zur selben Zeit noch in Deutschland hatten die Galerien nur Bilder vom Werk „an und für sich“ ausgegeben. Für O’Doherty, der diese Fotos nicht in Auftrag gegeben hatte, bedeutete der gallery shot die Ikone der modernistischen Kunst, weil er völlig korrekt die Reziprozität von Werk und Galerie-Raum und Galerie-Wand abbildete und damit die Echokammer für die modernistische Ästhetik „mitkommunizierte“. Zwanzig Jahre später hat Karlheinz Lüdeking die Szene erneut besichtigt und festgestellt, dass es Kunstwerke wieder ohne Räume und auch Galerien ohne Räume gibt – im Internet hat sich die Ortlosigkeit dann vervollkommnet. Ich selbst würde als die Ikone, die den gallery shot ersetzt, die party pics der Vernissagen setzen, ein Medium nicht weniger aussagefähig als sein Vorgänger, aber jetzt nur noch kultursoziologisch verwertbar. Mit O’Dohertys Inside the White Cube wurde eine der erfolgreichsten kontextsensitiven Untersuchungen vorgelegt, ja man darf behaupten, dass sie nicht nur aus den richtigen Fotografien die richtigen kunsthistorischen Folgerungen zog, sondern dass sie auch aktiv eine eigene Kunstpraxis oder Methode unterstützte. Die Rede ist von Institutional Critique, ein Label, das es damals noch nicht gab. O’Doherty konnte die Anfänge dieser Richtung unter dem Dach der Konzeptkunst behandeln, ab ca. 1982 setzte dann eine zweite Welle ein. Eine Erfolgsstory mithin: kunsthistorisch, kunstkritisch, kunstpraktisch, und eine große Ausnahme.
Alle Ausdrucksmedien sind kontextrelativ; Kunst ist kontextrelativ und kontextsensitiv und bisweilen kontextreflektierend. Der Digitized Turn [Wikidata, GND] wiederholt, reproduziert den Kontextraub des 19. und 20. Jahrhunderts. Aber Kunstwerke leben amputiert trotzdem weiter, weil sie der Ort einer inneren Kontextbildung sind. Das macht sie scheinbar immun. Sie stellen den Betrachter vor einen fiktiven Situationskontext und üben ihn in die Kunst des situativen Verstehens ein. Bilder und Dichtungen sind die hohe Schule dieser Ein-sichten. So lautet nach Kontextraub der nächste Vorwurf, den man dem Formalismus machen muss, dass er anstandslos durch die Schicht der Blick- und Handlungsregie des inneren Kontextes hindurch in die „Tiefe“ der Kunstmittel und Gestaltqualitäten vordrang und diese verabsolutierte, dass er also gewissermaßen Naturgeschichte gegen Menschengeschichte ausgespielt hat. Korrektur: Riegl hat das im Holländischen Gruppenporträt anders gemacht.
Towards a textured and embodied knowledge of place
Man kann nicht behaupten, dass die Probleme einer „Kunstgeschichte ohne Orte“ und einer Entfernung von den Originalen unser Fach beschäftigen würden. Die Betreiber einer knowledge based on clicks mit Sicherheit nicht, aber die anderen? Das Kuriose ist, dass unsere Kollegen in der Historikerzunft heute intensiv darüber nachdenken, welche Folgen es hat, wenn der lange Aufenthalt in Archiven ersetzt wird durch den Zugang zu Quellen im Internet und durch deren Interpretation vom Homeoffice aus. Schon im Jahr 2000 hatte der Schriftsteller Nicholson Baker in Double Fold (deutsch: „Der Eckenknick“) die Verluste durch Mikroverfilmung [Wikidata, GND] und anschließende Makulierung von Zeitungen und Zeitschriften beklagt – eine Maßnahme, die durch elektronische Reproduktion fortgesetzt wurde und nicht abgeschlossen ist. Baker machte darauf aufmerksam, was an sinnlicher und kontextueller Erfahrung verloren geht, wenn diese primären Quellen reformatiert werden. Jeder, der einmal Mikrofilme [Wikidata, GND] oder Mikrofiches [Wikidata, GND] benutzt hat, mittlerweile sind sie selbst von Ausmusterung bedroht, weiß von der fragmentierten und ortlosen Erscheinung des abgebildeten Materials und vermisst, was die Phänomenologie die Mitanwesenheit nennt: die Haptik des Papiers, das Layout, die Seite daneben, die Seite davor, das sogenannte Buch.
Und Baker hatte nicht einmal daran gedacht, dass Historiker früher in die Orte und Länder reisen mussten, an denen eine lokale Tageszeitung erschienen war, um sie in dortigen Bibliotheken und Stadtarchiven zu studieren, die Historiker der Vergangenheit also dorthin zurückkehrten, wo etwas geschehen war. Kunsthistoriker taten das ebenfalls und tun es immer noch, aber zunehmend seltener, seit zeit- und geldsparende Methoden wie Formalismus und Ikonografie sie der Mühen enthoben, und erst recht, seit das digitalisierte Universum der Kunst für jeden User einen Klick weit entfernt ist. Ars una, species mille lautete der Titel einer historischen italienischen Buchreihe, die in jedem Band sehr viele, sehr kleine Abbildungen unterbrachte. Heute müsste das Motto heißen: „Artes mille, species Google.“ Und in Klammern käme hinzu: „Non nota locum.” Ersetzen wir das Lateinische durch die Lingua franca des Englischen, dann heißt das: „Denn im Long Tail des Digitalen ist ein Gegenstand wenigstens vorhanden und nur noch einen Mausklick vom Jahrhundertwerk entfernt.“
Es fällt also auf, dass die Kollegen aus der Historie so beredt von Verlusten sprechen, die wir Kunsthistoriker viel stärker empfinden müssten, aber nicht vortragen. Feldforschung [Wikidata, GND]. fieldwork ist ihr Wort, “fieldwork invites us to achieve a textured and embodied knowledge of place”; sie exponiere aber auch, so Shalini Puri, setze uns vor der Geschichte frei: ”When a researcher reads in a library, nobody is reading her back. When one reads in the field, one is constantly being scripted, being the object of a countergaze, and is thereby forced to confront not only one’s geographical but also one’s historical location.” Das klingt nach ethnologischen Feldstudien, ist aber von einer Kulturhistorikerin des „Globalen Südens“ geschrieben, deren Interessen bis in die Anfänge der Kolonialisierung zurückreichen.
Feldforschung in der Kunstgeschichte und museale Datenerfassung
Findet Feldforschung in der Kunstgeschichte des „Globalen Nordens“ noch statt? Seit 1981 läuft in der Bundesrepublik das größte Unternehmen dieser Art überhaupt, ein Projekt, das ortsspezifische Expertise, Kontextwissen und Reibung mit der Realwelt zu Voraussetzungen hat: Gemeint ist die Denkmaltopographie der Bundesrepublik Deutschland, die in 250 Bänden die Baudenkmäler in entsprechend vielen Kreisen und Stadtteilen erfasst, abbildet und gerichtsfest zum Denkmal deklariert. Man schätzt, dass es bei gleich dichter Aufnahme aller Regionen am Ende 800 Bände sein müssen. Es wird über den Fortschritt berichtet und über Kriterien diskutiert, aber über den Forschungsalltag der Akteure und der durch ihre Arbeit Betroffenen sowie über den Wert der von Puri hervorgehobenen „embodied knowledge of space“ erfahren wir nichts. Wieweit die Ergebnisse in den zuständigen Forschungszweigen verarbeitet wurden, ist ebenfalls schwer abzusehen. War und ist das Ganze ein Verwaltungsakt, eine Art Denkmalzählung, vom Auto aus „erfahren“ und fotografisch dokumentiert, die größte Sammlung von Fassaden weltweit?
Die Denkmaltopografie wurde ohne Computerunterstützung angefangen, geriet aber in der Folgezeit immer tiefer in die Zeit der Big Data und in die wenig inspirierende Nachbarschaft vieler Datenbanken-Vorhaben, die als Maßnahmen-Projekte aufgelegt, aufgefüllt und zum Teil wieder aufgegeben wurden. Meist sind es Erhebungen der Sammlungsbestände, im Homeoffice an Fotografien durchgeführt, um die Mühen etwaiger Autopsie immer überflüssiger zu machen. Über Sinn und Stand der musealen Datenerhebung wird außerhalb der Fachverbände nicht gesprochen. In den Häusern selbst hört man nicht selten das Wort Datenfriedhof. Aber es ist klar: Die Maßnahmen haben sich verselbständigt, niemand kann zurück, und alle sind verpflichtet, das „kulturelles Erbe digital für die Öffentlichkeit verfügbar zu machen“. Das ist unangreifbar.
Und noch eines steht fest: Die vom Formalismus eingeleitete Egalisierung schreitet unaufhaltsam mit digitaler Unterstützung voran. Vermassung gleich digitale Vermessung der Kultur. Wenn Wölfflin die spitzen Schuhe der Zeit um 1200 neben die gotische Kathedrale stellte, stehen an dieser Stelle jetzt nur noch die Schuhe. Nein, das ist unfair: Was Schuhe angeht, wird selbstredend auch die nächsthöhere und modernere Objektklasse „eingepflegt“: „Bei dem vorliegenden Exemplar handelt es sich um eine mechanische Schuhweitmaschine (‚Stiefelspreitzer‘) ‚Eudora II D.R.P.a‘. Über einem verschraubbaren Fuß erhebt sich in schräger Lage die eigentliche Vorrichtung mit mehreren Drehrädern, mit deren Hilfe sich der zugehörige metallene Spreitzer in seiner Breite oder Höhe verstellen lässt, womit der eingespannte Schuh durch längeren Druck/Zug in einem Arbeitsgang in seiner Breite und Weite verändert werden kann (weiten, strecken, anpassen an spezielle Fußformen).“
Es sind vor allem die kleinen kulturgeschichtlichen und die Spezialmuseen, die ihre Bestände digitalisieren, weil sie so am einfachsten zu Geld kommen und Personal halten können. Die öffentliche Hand öffnet sich automatisch, wenn „etwas mit dem Computer“ gemacht werden kann. Die „großen Häuser“ gehen oft den Weg der kulturgeschichtlichen Museen mit, weil ihnen von dort die Klassifikationen angegeben werden oder es einfach leichter ist. Wer sich im Portal Museen Nord, einem gemeinsamen Projekt des Museumsverbandes Schleswig-Holstein und Hamburg und digiCULT, der Kieler Kunsthalle nähert, stößt auf ein schönes Gruppenporträt von der Hand des Deutschrömers Detlev Conrad Blunck aus dem Jahr 1850. Vermutlich ist es als Vorzeigeobjekt gedacht. Außer technischen Angaben erfahren wir die Namen, Lebensdaten und Kurzbiografien („Julius [1848–1893], später Kaufmann in Odessa“) der fünf dargestellten Kinder des Neustädter Arztes Dr. Carl Krah. Wir können andere Werke des Malers anklicken und uns unter „Ähnliches Material“ und „Ähnliche Technik“ weitere Porträts und Ölbilder anschauen – das ist die klassische Zeigeart unter informatischen Bedingungen: lateral, mit dem Querhinweis auf anderes und Ähnliches. „From many things to many things“(Gary Flake). Das ist Amazon auf kulturwissenschaftlich: Andere User haben sich auch für diese Bilder interessiert. So viel zur „Breite“, wie steht es mit der „Tiefe“? Über dieses eine Bild werden wir mit den computeraffinsten Identifikationen, mit Namen und Zahlen abgespeist. Triumph des Logo- und Numerozentrismus [Wikidata, GND], gut für Familiengeschichte, Statistik, Demografie, Sozialgeschichte, gut für Weiterarbeit am Rechner. Nach solchen Erfahrungen möchte man Lev Manovichs oft tradierter These, Datenbanken seien die symbolische Form unseres Zeitalters, lieber nicht beitreten. Da werden spätere Generationen hoffentlich noch etwas anderes finden.
Interdisziplinarität aus dem Rechner?
Vielleicht soll diese Objektferne ja sein und verstanden werden als Überweisung aller Fragen an das Forum der Interdisziplinarität. Die Vertreter einer humanistischen Version von Digital Humanities sind von dem Junktim von Computer und Interdisziplinarität überzeugt. Für Hubertus Kohle ist als „disruptiver Faktor“ der neuen Geisteswissenschaften ausgemacht: „Sie fügen die in einem langen historischen Prozess in Kleinstdomänen ausdifferenzierten Disziplinen zu einem gemeinsamen Wissensraum zusammen, der kooperativ erschlossen wird.“ Ganz ähnlich klingt der Historiker Wolfgang Schmale einige Jahre später – er schreibt immer OA, wenn er von Digital Humanities handelt, und meint damit nicht Oase, sondern Open Access [Wikidata, GND] – also letztlich doch Oase: „Das Interessante an OA ist die Frage, ob OA uns in den Stand versetzt, sinnvolle Forschungsfragen zu entwickeln, die nicht von der autoritativen Vorstrukturierung abhängen, sondern durch die Nutzung des Kreativitätspotenzials, das die Quantität zu eröffnen scheint, bestimmt werden.“ Da ist der Autor zum Schluss wieder dorthin abgebogen, wo fast alle enden, bei den Quantitäten und ihrem „Kreativpotenzial“. Dabei möchte Schmale aber nicht in Richtung Datenzentrifuge gehen, sondern sich von etwas wegbewegen, von der „autoritativen Vorstrukturierung“ der Fächer nämlich – von ihr könnte uns „OA“ befreien. „Die nur interdisziplinär zu fassende Historizität von Kultur lässt sich digital besser darstellen als analog. […] ‚Fachidentität‘ ist dann obsolet.“ Wieso Digitalität Interdisziplinarität fördert oder fordert, wäre zu diskutieren. Schmale spricht von einem „virtuellen Zusammenrücken“ der Stoffe und Disziplinen, welches im erstrebten Umfang nur im Web existiere. Das ist das berühmte Ein-Click-entfernt-Argument, das Kunstgeschichte und Theologie oder Germanistik miteinander verlinkt.
Interdisziplinarität musste nicht auf den Computer warten. Ihre hohe Wertschätzung ist eine Folge der 68er-Bewegung und wurde schon 15 Jahre praktiziert, bevor die PCs auch in den Geisteswissenschaften den Betrieb aufnahmen. Von daher gesehen kommt es etwas spät, wenn unsere Vordenker den Computer heute zum Garanten oder gar Initiator gewünschter Inter- und Transdisziplinarität erklären. Das stimmt, wenn man den Radius sehr eng zieht und behauptet, dass das Fach Digital Humanities sich fachübergreifend versteht. Nun muss man aber vorsichtig sein mit bedingungsloser Forderung nach Inter- und Transdisziplinarität. Seit 30 Jahren ist das die regierungsamtliche Leitlinie jeglicher Wissenschaftsförderung, jeder Ausschreibung und Fakultätsplanung. Muss uns jetzt auch noch die Maschine in diese Richtung schubsen (wenn sie es denn tut)? Wollen wir, dass Maschine und Ministerium von uns dasselbe wollen? Die Antwort ist: Wir müssen es wollen, weil Maschine und Ministerium in die genau entgegengesetzte Richtung ziehen.
Wenn der Ruf nach Interdisziplinarität zu Recht erfolgt, dann kommt er aus der Sorge um die extrem zunehmende Spezialisierung, die ebenfalls eine Erscheinung der Jahre nach 1968 ist und aus dem rasanten Ausbau des Betriebs der Wissenschaften resultiert. Wir beobachten eine progressive Zellteilung der Disziplinen, die zwei Gründe hat: die ewigen Ausdifferenzierungsprozesse der Moderne und ein Stellenmarkt, der ein Anbietermarkt ist und die „überschüssigen“ Abnehmer in Richtung der Nischen drängt. Ich lese im Moment das Buch eines Mannes, der eine Professur für „Geschichte der Machtformen in Westeuropa vom 13. bis 16. Jahrhundert“ innehat. Das ist nicht sein Spezialinteresse, sondern seine Venia. Dieses cut, cut, cut wird durch ein neues paste, paste, paste gekontert, das aber nicht wirklich synthetisiert, sondern nur den Rahmen aufmacht, der mehr Subdisziplinen aufnehmen kann. In der Kunstgeschichte heißt das Mandat World Art History und hat sich gleich wieder zu einer Community zusammengeschlossen, die vor allem eins tut: Metatexte über ihre zukünftige Arbeit zu schreiben.
Der Rechner ist zu einem nicht ganz unerheblichen Teil an der neuen Minidisziplinarität schuld. Als Inkubator brütet das Internet aus, was nach Kohle der Rechner gerade überwinden soll: Foren und Mitteilungsorgane für „in Kleinstdomänen ausdifferenzierte Disziplinen“. Irgendwann richten sich die Initiativen, auch Blasen genannt, zum Mini-Fach auf, verkaufen Elsevier oder Springer ihre Zeitschriften und unterstützen mit Summer Schools die Hotellerie vor allem im Mittelmeerraum.
Digital gleich: der Tod des (einen) Autors
Was bei Schmale die Kontiguität ist, die Entfernung des einen Klicks von der Nachbarwissenschaft, ist für Kohle die Ein-Klick-Distanz des unbekannten Werks vom Meisterwerk – dazu gleich mehr. Letzterer nimmt aber noch zwei weitere kanonische Größen ins Visier: den Text, sprich: „die Gediegenheit der hart errungenen Schöpfung“, und die daraus abgeleitete Textherrschaft des Autors. Die „Flüchtigkeit und Rekontextualisierbarkeit“ der Digitaltexte untergrabe aber deren Endgültigkeit, verlange vielmehr nach einem Open Access, der auch in das Innere unserer Datensätze hineingeht und an ihrer Genese teilnimmt. „In vernetzten Arbeitsumgebungen öffnen sich digitale Texte zwang- und aufwandlos dem Kommentar, der Annotation, ja der Koautorschaft. Man könnte so weit gehen zu behaupten, dass wissenschaftliche Texte in solchen vernetzten Umgebungen immer entschiedener zum Kommentar eines anderen wissenschaftlichen Textes werden, womit sie – das ist eine vielleicht überraschende Konsequenz – geradezu auf eine mittelalterliche Schreibpraxis des Kommentierens zurückverweisen.“ Für Claire Bishop ist das nicht mittelalterlich, sondern bedeutet ein Endziel der digitalen Zukunft: “At its most utopian, the digital revolution opens up a new dematerialized, deauthored, and unmarketable reality of collective culture.”
Ich bin sicher nicht in der einschlägigen Szene zu Hause und erwarte Widerspruch, was eine Autorschaft angeht, die „deauthored“ wäre, aber ich kenne solche Hypertexte nicht, nicht in unserer Wissenschaft, vor allem kann ich kein Begehren danach ausmachen, was überhaupt nichts mit den vermutlichen Qualitäten einer solchen kollektiven Schreibszene zu tun hat, sondern bedingt ist durch den aktuellen Stand des Wissenschaftssystems, das vom Computer entschieden in eine andere Richtung getrieben wird. In den Humanities, in allen Wissenschaften ist Textherrschaft prioritär. Warum ist das so? Weil der Text nachher zählt, karrieretechnisch, nachdem er gezählt wurde, den Regeln des Professor Hirsch folgend. Es ist letztlich nur konsequent, wenn die Bewertung der aus Nullen und Einsen bestehenden Aufsätze ebenfalls auf Zahlenbasis erfolgt: Registriert wird der bibliographische Hinweis auf ein Paper in den Fußnoten eines anderen Papers – und wenn der Autor im Haupttext sagt, dass die von ihm zitierte Arbeit Unsinn enthält, egal, der Apparat zählt weiter, und er rechnet in das Ranking des Papers das Ranking der Zeitschrift, die es zitiert hat, mit ein, und dieses Ranking wird aus der Zahl der Zitationen gewonnen, die auf dieses Organ verweisen. Zitationen sind die Bitcoins der Wissenschaften. Hubertus Kohle: „Zugespitzt formuliert: Daten im Internet tendieren dazu, Metadaten zu sein.“
Bilderebbe
Erwin Panofskys witziges Wort, dass im Fach der gewinne, der die meisten Dias habe, hat sich erledigt. Kommen wir zu den möglichen Konsequenzen der Tatsache, dass wir nun alle gleichviel Folien haben können. Margarete Pratschke notiert dazu:
„Was die Gegenstände der ‚Kunstgeschichte‘ angeht, gilt es, auf verschiedenen Ebenen Phänomene einer digitalen ‚Bilderebbe‘ zu problematisieren. Anders als etwa die vermeintlichen ,Dekanonisierungseffekte‘, die mit der Digitalisierung verbunden werden, greift in der Regel in kunsthistorischen Projekten eine Einengung auf den Kunstkanon; eine andere Form der Bilderebbe, die wissenschaftspolitisch völlig ungelöst ist, zeigt sich in digitalen Publikationen, in denen aufgrund bildrechtlicher Restriktion die Forschungsgegenstände nicht gezeigt werden können (‚image not available online‘).“
Damit sind zwei sehr unterschiedliche Reaktionen angesprochen. „prometheus“ gegen „Verwertungsgesellschaft Bild-Kunst“, könnte man den einen Konflikt überschreiben. Ich möchte zu einem Dauerkonflikt, der sich im digitalen Zeitalter weiter verschärft, kein Wort weiter verlieren. Was aber ist mit der „anderen Form der Bilderebbe“ und der „Einengung auf den Kunstkanon“? Das Versprechen hatte gelautet: „Mit seiner [des Computers] Hilfe wird es möglich, auch weniger bekannte, weniger beschriebene und weniger veröffentlichte Künstler und Kunstwerke in der Forschung zu berücksichtigen.“ „ Entkanonisierungseffekte“ (Hubertus Kohle) zielen auf ein qualitatives Mehr und sind nicht mit Big Data [Wikidata, GND] und Distant Viewing zu verwechseln. „Demokratisierung“ lautet das Motto, mehr Künstler und Künstlerinnen wagen. Und das klingt wieder ganz nach 1968. Wenn ich mit diesem Wunsch, den Long Tail der Kunstgeschichte zu erkunden, an das August-Heft der Kunstchronik herangehe und die Liste der Themen von Dissertationen und Masterarbeiten durchschaue, habe ich den Eindruck, dass wir bald den Grund abgefischt haben. Klar, Entdeckungen kann man überall und jederzeit machen. Nothing beats fresh material. Vermehren und steigern müssen wir aber nicht nur die Daten, sondern vorrangig die Fragen, die das Interesse an anderem und Neuem anleiten.
Aber was bewirkt die heraufbeschworene „Bilderebbe“? Pratschke missbilligt diese Entwicklung, sie beschneide „die Forschung der Kunstgeschichte fundamental“ und bringe sie um die „Erträge der Kanonerweiterung seit dem Iconic Turn [Wikidata, GND]“. Gründe und Beispiele nennt die Verfasserin nicht. Aber es fällt nicht schwer, dem nachzuhelfen. Zunächst zur Geschichte: Die Kanonerweiterung fand statt, da war das Wort turn noch unbekannt, und an den Iconic Turn [Wikidata, GND] dachte niemand. Die erste Runde eröffnete der Formalismus, das habe ich oben dargestellt – Stichwort Schuhe. Die zweite Runde kam viele Jahrzehnte später. In Deutschland sprengten das Schulfach Visuelle Kommunikation und die Zeitschrift Ästhetik und Kommunikation (seit 1970) den „ Kunstkanon“ zugunsten massenmedialer Bilderwelten. In England fand Ähnliches unter dem Dach der Visual Culture Studies [Wikidata, GND] statt. Dann erst kamen der Iconic Turn [Wikidata, GND] und die Bildwissenschaften. Und danach die digitale Wende: „Recherchen in solchen Datenbanken lenken den Blick zwangsläufig von den großen Einzelwerken ab und favorisieren die Breite. Sie zeitigen einen entkanonisierenden Effekt. Gleichzeitig lassen sich die ‚Meisterwerke‘ in ein Verhältnis zur breiten Produktion setzen.“ Das klingt sehr danach, dass hier der „Kunstkanon“ entkanonisiert wird und nicht wie in den zuvor angesprochenen Richtungen eine Ausweitung auf alle möglichen Bildmedien das Ziel ist. Pratschke würde das nicht genügen. An ihre Adresse und die vieler Antikanoniker radikaler Observanz müsste man freilich die Frage richten: Brauchen die Visual und Cultural Studies heute, da Hunderttausende in diesen Disziplinen mit Bildern arbeiten, noch weitere Unterstützung von der Kunstgeschichte? Würde man Film Studies oder Cultural Studies vorhalten, sie würden sich auf den Film- beziehungsweise den Kulturkanon beschränken? Und von den Befürwortern einer digital geförderten „Breite“ des „Kunstkanons“ würde ich wissen wollen: Wie groß darf/muss der sein? Die erste ist eine rhetorische Frage, die zweite eine echte. Warum der Kanon aus Sicht der digitalen Kunstgeschichte nicht „beschnitten“ werden darf, hat einen simplen Grund: Wer an das „Kreativpotenzial“ der großen Zahlen glaubt, wird sich jeder Beschränkung nach Kategorien oder Zeiten oder Maßstäben entgegensetzen. Qualität wird vor dem Tribunal des Rechners gleich wieder an die höchste Distanz der Quantität verwiesen: Google weiß nicht, welches der beste Text, das beste Bild ist. Die Zahl der Klicks „weiß“ es. Die Zahl ist die neue Richtschnur, auf Griechisch Kanon.
Mit der Zahl 2,1 Millionen, die Bilder aller Klassen, auch die wenig gewürdigten, umfasst, eingebracht von Hunderten von Zubringern, könnte man es eigentlich bewenden lassen. Niemand wird sie je durchklicken. Aber es werden die großen Repositorien rührend und der Hermeneutik des Misstrauens folgend nach Fehlendem und den geheimen Codes befragt. (Ich spreche hier nicht von den werbebasierten Big-Tech-Datenbankhaltern, gegen die ist jeder Verdacht gerechtfertigt.) Wie würde man diese Menge von 2,1 Millionen rekonstituieren, wann wäre der Pool wirklich voll?
Das „Kreativpotenzial“ der großen Zahl bestand und besteht vermutlich immer darin, dass sie die Forscher zwingt, Methoden zu erfinden, sie los zu werden, beziehungsweise Formate zu entwickeln, die ohne sie auskommen. Mit Technophobie hat eine solche Reaktion nichts zu tun. Statt Phobie rührt sich das richtige Bewusstsein, dass der Gegenstand geisteswissenschaftlicher Forschung das Partikuläre, der Sonderfall ist: „the idea […], that each particular erases/the luminous clarity of a general idea.“ Letztere zu entwickeln werden wir freilich nicht müde. Und wollen gleichzeitig nicht, dass „numbers“ sowohl an die Stelle von “each particular“ als auch der „general idea“ treten. Wenn die Ressourcen überbeansprucht werden, ideologisch und praktisch, rührt sich ein neuer Minimalismus. Die Geschichte unseres Faches liefert die Beweise. Heinrich Wölfflin hatte, wie zitiert, festgestellt, „dass es schon psychologisch überhaupt gar nicht möglich ist, so viel Kunst zu schlucken“. Seine Monografie über Albrecht Dürer, zuerst 1905 herausgekommen, hatte in ihren erweiterten Ausgaben zum Schluss 225 Abbildungen auf 370 Seiten. Damit war ein Stand erreicht, der auch heute nur ganz selten übertroffen wird, solange es sich um grundlegende wissenschaftliche Studien und nicht um Bildbände handelt. Hatten die Vordenker der tiefen, inneren Kunstgeschichte, der „Einheit der Sehformen“ doch dem Sog der „species mille“ nachgegeben? Ein Verhältnis von zwei Drittel Text zu ein Drittel Abbildung musste einem Teil der nächsten Generation unbefriedigend erscheinen. Die Stilhistoriker (Pinder, Hamann, Goldschmidt) erhöhten zwar noch die Schlagzahl, weil sie jetzt in neue Kunstlandschaften und Epochen ausschwärmten: Ein Handbuch der Kunstwissenschaft-Band Pinders hat 481 Abbildungen auf grob 500 Seiten. Auch die Ikonografen, etwas später beginnend, konnten eher mehr als weniger Bildbeispiele gebrauchen. Auch sie tendierten zur Bilderreihe und Bilderflut.
Das einzelne Kunstwerk und die Menge
Im Gegenzug beginnt nach 1918 die große Zeit der Einzelwerkbetrachtung und speziell von Analysen, durch die werknah neue Ansätze eingeführt und erprobt werden. Dies an einem einzigen Kunstwerk zu versuchen, hätte um 1900 niemand gewagt. Da galt es noch, Möglichkeitsräume auszukundschaften. Hans Sedlmayrs Aufsatz „Gestaltetes Sehen“ (1925) über Borrominis San Carlo alle Quattro Fontane fällt einem als erster Schritt in diese Richtung ein, ein Text, in dem der Autor mit großer Geste dem Fach Plätze und Aufgaben zuweist, also sehr viel mehr vorhat, als in Ruhe ein einziges Bauwerk zum Exempel zu erheben. Auch im Titel bleibt er sehr allgemein und verweist auf den nach Stil nächsten god term: Gestalt. Für dieses erste Fallbeispiel soll gelten, was Sedlmayr 1931 als Aufgabe der werkmonografischen Betrachtung ganz allgemein vortrug: „Sobald das einzelne Kunstwerk als eine eigene, noch unbewältigte Aufgabe der Kunstwissenschaft angesehen wird, steht es in mächtiger Neuheit und Nähe vor uns. Früher bloß Medium der Erkenntnis, Spur eines anderen, das aus ihm erschlossen werden sollte, erscheint es jetzt als eine in sich ruhende kleine Welt eigener und besonderer Art.“ Sedlmayr eröffnet für unser Fach den Weg des Close Viewings, und er tut das etwa zur gleichen Zeit, da in England das Close Reading entwickelt wurde. Er dreht die Spirale noch weiter nach innen, als es Wölfflin für seine „innere Geschichte“ der Kunst getan hatte. Aber, und vor allem dieses Aber rechtfertigt den Blick auf den Text von 1925 – außer dass mit ihm ein Format begründet wird: Das Werk wird als Nukleus jener inneren Kontextbildung begriffen, auf die ich mich oben bezog. Sedlmayr setzt nicht bei den Gliedern, sondern bei den Einheiten an, er vergleicht also nicht wie Wölfflin den Renaissance- und den Barock-Baluster miteinander, sondern operiert mit Einheiten wie Jochen oder Travéen (die Betonung vor allem bei Einheiten liegt auf dem Plural). Diese ersten Gestalteinheiten werden dann in ihrer Aufbauleistung für ein jeweils größeres Ganzes betrachtet: Im Fall der römischen Kirche sind das die beiden Geschosse der Fassade und die zwei mal zwei Wandkompartimente des Inneren, allesamt dreiteilige, rhythmische Travéen. Mit diesem Ansatz ist der Durchbruch zur Dimension der Komplexität geschafft, die als Begriff damals der Kunstgeschichte noch nicht zur Verfügung stand. Komplexität als Interaktion zwischen Subsystemen (hier: Fassade und Inneres) ist genauso gegeben wie Interaktion innerhalb von Subsystemen (im Inneren geht das generative Prinzip nach Sedlmayr bis hinunter in die vorher nie beachtete Durchgestaltung der Chorschranken). Hätte der Autor jetzt noch den Hinweis des Titels „alle quattro fontane“ ernst genommen, wäre es ein Leichtes gewesen, auch die Interaktion mit dem städtischen Kontext einzubeziehen. Oder, im Inneren bleibend, das anschließende Kloster als Fortsetzung der Formideen der Kirche zu beschreiben. „ Kunstkanon“? Mit Borromini und San Carlo hatte sich Sedlmayr wohl ganz bewusst einen „exotischen“ Fall vorgenommen, der schwer unter dem Dach des Oberbegriffs Stil unterzubringen war.
Einheiten sind der Kontrapunkt des Quantums. Sie wurden zum Markenzeichen der Geisteswissenschaften in der Phase nach dem Formalismus: Übersetzt hießen sie Rhythmus, narrative Bauform, Struktureinheit, Typus, Physiognomie. Einzelwerkbetrachtung war die angestammte Vortragsform. Die Geschichte dieses Formats und der Methode des Close Viewings ist noch zu schreiben. Sie wurden bald zu Konvention, Pflichtübung, „Kunststück“, mussten aber in jeder Generation neu erprobt werden. Ich erinnere nur an die folgenden Reihen: Der Kunstbrief (angefangen als „eine kleine Feldbücherei“, 1943–1949, 57 Hefte, Gebr. Mann), Der Kunstbrief (eine Reihe zu Werken der Berliner Museen, seit 2001, Gebr. Mann), Reclams Werkmonographien zur bildenden Kunst (1956–1970, 149 Hefte), Das Kunststück (1984–2000, 103 Hefte, Fischer). Es wäre ein Vergleich sehr wünschenswert und eine Nachbetrachtung der Gründe, warum Reihen abgebrochen wurden. Seit den 1980er Jahren wuchs eine ebenfalls minimalistische Bewegung heran, die dem Genre Konkurrenz machte und nicht in Reihen auftrat. Ich spreche von Arbeiten, welche mit ganz wenigen Bildern und Daten auskommen, wenn sie ihre Überlegungen zu Grundfragen der Bildästhetik und Medialität entwickeln. Ein Theorem, ein Werk, in dieser Reihenfolge. Um nur ein Beispiel zu nennen: Frederic Jamesons berühmte Analyse des Bonaventure-Hotels in Los Angeles, die mit dem Titel Postmodernism, or: The Cultural Logic of Late Capitalism einen großen Aktionsradius ankündigte. Ein Vergleich San Carlo – Bonaventure-Hotel wäre höchst reizvoll.
Wer 149 oder 103 Einzelwerkbetrachtungen organisiert, engt den Kanon nicht über Gebühr ein. Wie das heute aussieht, in einer Zeit, da der Begriff selbst unkanonisch ubiquitär und inflationär geworden ist, macht das folgende Beispiel sehr deutlich. Vertreter der Generation „prometheus“, wenn ich das so sagen darf, haben ein Kompendium in vier Bänden unter dem Titel Kanon Kunstgeschichte herausgegeben beziehungsweise durch Beiträge unterstützt. Es erschien 2015 im renommierten Fink-Verlag, einem Haus, das 40 Jahre lang den Kanon des Antikanonischen vielstimmig vortragen ließ. Die Herausgeber Kristin Marek und Martin Schulz müssen sich natürlich wappnen und wehren gegen die Unterstellung, eine „starr normierende Richtschnur“ anwenden zu wollen – das wäre der Wortsinn von Kanon. „Vielmehr geht es um Veränderung, Flexibilität, Partialität innerhalb eines relativen Rahmens, [...] dessen Zentren und Ränder stetig verschoben, überschritten, vermischt, neu ausgelotet und verhandelt werden“. Das bemühte Aufzählen verrät die Schwierigkeiten, eine stringente Auswahl vor den allgegenwärtigen Instanzen Diversity und Multiplicity begründen zu müssen. So formuliert, ist der Kanon die flexibelste Sache der Welt, verhandelbar eben. Aber das Ganze hätte man auch „Ein Jahrtausend Kunstgeschichte in Einzeldarstellungen“ nennen können. Der Kanon Kunstgeschichte setzt sich nämlich aus profunden Analysen von lauter Einzelwerken zusammen – ein Beitrag wie „Das Lotharkreuz im Aachener Domschatz“ steht dann für ein Kapitel zur mittelalterlichen Schatzkunst. Nicht der Kanon, hier hyperkorrekt verkleidet als Flow, ist das eigentlich kanonische Element, die gute alte Werkbetrachtung ist es. Man schreibt sie heute am Computer, aber es ginge auch ohne, vielleicht sogar besser.
Das unbedingte Kunstwerk, digital
Einzelwerkbetrachtung kann aber auch wieder ostentativ auftreten wie einst bei Sedlmayr und schlägt sich dann konventionell auf die Seite derer, die das Kunstwerk als „unbedingtes“, als „kleine Welt eigener und besonderer Art“ verstehen wollen. Was wohlgemerkt nicht für das Projekt Kanon Kunstgeschichte gilt, aber für dezidierte Einzelwerkbetrachter wie Martin Heidegger und Max Imdahl. Das jüngste Beispiel ist die von Michael Brötje kurz vor seinem Tod unter dem Titel BildSchöpfung vorgelegte dreibändige Sammlung von 24 Werkanalysen, die von Duccio bis Barnett Newman reichen. Im Fall von Brötje bin ich mir sicher, dass man sein opus magnum in 30 Jahren als die totale Negation eines avancierten Standes computergestützter Kunstgeschichte feiern oder abschießen wird. Er selbst kämpft nicht gegen die digitale Wende, sondern rückwärts gewendet gegen eine Kunstgeschichte, die zur Erklärung eines Kunstwerks so niedere Faktoren wie Gesellschaft, Zweck, Ideologie, Geistesgeschichte etc. heranzieht. „Erweiterungsbedingt“ habe das Fach seinen, den einzig erlaubten Begriff verloren: den Begriff der Kunst. Erweiterung im Sinne eines erweiterten Kunstbegriffs und einer interdisziplinären Kunstwissenschaft geht schon weit, aber nicht weit genug. Man merkt diesem Autor an, dass er als neuer Noah nicht allein das Format Werkmonografie, sondern auch die wichtigsten Exemplare der Species Kunst in seine Arche retten will, wo draußen schon die Daten- und Bilderflut anbrandet. Den Titel BildSchöpfung müsste man in dieser Perspektive noch einmal neu verstehen; die Tatsache aber, dass ausgerechnet Brötjes Werk auch online zugänglich ist und damit als reformatiertes dem Schöpfungsakt der digitalen Ära unterworfen wurde, ist ein kleiner Schock.
Das „unbedingte Kunstwerk“ und seinen Eintritt in den „unheiligen Bezirk des Digitalis“ zu denken, das wäre ebenfalls wahrhaft „disruptiv“, wenn wir für Brötje den existential-hermeneutischen Anspruch der Kunstbetrachtung beibehalten wollen. Aber andererseits und jetzt von der Maschine her gedacht: Wäre der Computer nicht höchst aufnahmebereit für das „unbedingte Kunstwerk“; wäre ein solches nicht um einen Qualitätssprung rechnergerechter als die Lebensdaten der fünf Kinder des Dr. Krah aus Neustadt? Und hatten wir nicht eingangs mit Manovichs Laboranalyse der Gemälde van Goghs das Klassenziel „unbedingt“ schon fast erreicht? Farbdaten, Flächenwerte, Histogramme: hier kommen wir einer „Naturgeschichte der Kunst“ sehr nahe. Margarete Pratschke überschreibt das Kapitel „Methoden“ in „Digitalität und Kunstgeschichte“ mit „Digitale Faltenzähler: Form(analyse ) und Formalisierung“ und fährt fort:
„Die digitalen Methoden in der Kunstgeschichte stehen vor dem Problem, Bilder (Form) numerischen Verfahren (Formalisierung) zugänglich zu machen. Kritisch besehen folgen viele digitalen Projekte unhinterfragt den Prämissen formanalytischer Verfahren, denen man vorwerfen könnte, längst überholte (digitale) Faltenzählerei, Morphologie oder bestenfalls Ikonografie zu betreiben.“
Könnte? Digitale Kunstgeschichte führt dahin zurück, wo Kunstgeschichte als Wissenschaft anfing. Als sie die Dimension Form in den Vordergrund rückte, weil sie kälter, langsamer, näher an den positiven Wissenschaften war als Inhalt, der in der meinungsfreudigen Zeit um 1900 zu weltanschaulichem Exzessen verleitete. Doch um Wölfflin zu verteidigen: Bei seinen Kategorien offene und geschlossene Form spielen Rahmung und Format eine Rolle. Größen, die eigentlich nicht zur „Naturgeschichte“ gehören. Der Elementarismus von heute geht viel tiefer in das „Innere“: „Mit der Möglichkeit, das Bild beziehungsweise eine digitale Reproduktion auf der Ebene kleinster Gestaltungseinheiten (‚Pixel‘) direkt zu adressieren, ergibt sich die Chance, analytisch in das Innere des Bildes einzudringen.“
Parallel zum Rechner mit dem Rechner arbeiten
Bilderebbe war 1925 die Reaktion auf Bilderflut und ist dann Aktion geworden und normales Bekenntnis zu erfolgreichen analogen Traditionen. Am „Scheideweg“ jedoch, den die digitale Revolution eröffnet, macht sich ein neuer Minimalismus stark, bewusst oder unbewusst Widerstand gegen die Epochenmaschine leistend. Das habe ich versucht kurz zu skizzieren, aber das Tableau der Schulen, die am Computer Kunstwerke betrachten, lesen und schreiben und „die Problematik des für die Kunstgeschichte gültigen und sie bestimmenden Kanons“ nicht für eine Problematik ersten Ranges halten, kann noch weiter aufgemacht werden. Ich spreche zuerst von der seit den neunziger Jahren datierenden Zuwendung zum Bild im Plural, also zu Zyklen, Clustern, Bildsystemen, Polyfokalitäten, multimedialen Systemen, Serien, Bild-Ensembles, Hyperimages und Gesamtkunstwerken. Solche Forschungen sind eine Korrektur am Kult des Einzelwerks und sind ihrerseits bereit, das singuläre Werk als „Anordnung verschiedener Bildelemente“ mit in eine Gesamtbetrachtung mehrteiliger Bildformen aufzunehmen. Der früher oft angewandte Begriff des Einheit stiftenden Programms ist aber viel älter als der Computer. Was jedoch den Konnex mit dem Rechner angeht: Die Bild-im-Plural-Forschung arbeitet mit der Virtualität, man könnte auch sagen: mit dem Grundrauschen der 2,1 Millionen Digitalisate im Rücken, und spürt von dort den Realismus ihres Tuns, dies zumal seit der Zeit, da Windows zu Windows wurde und an die Errungenschaften der Malerei des 15. Jahrhunderts aufschloss und viele Bilder und Bildchen gleichzeitig einbettete. Eine analog-digitale Parallelaktion findet statt, ohne gegenseitige Abhängigkeit der Akteure Rechner und Interpret. Das ließe sich auch für die Bildwissenschaft behaupten, welche die Zahl nicht der Bilder, sondern der bildgebenden Verfahren und Medientypen und damit den Gegenstandsbereich der Forschung enorm erweitert hat. In dieser Position entfaltet sich das Fach quasi analog zur ständigen Entfaltung der Möglichkeiten des Rechners. Oberbegriffe wie Programm, Modularität und Medialität bürgen bei den beiden Verfahren für eine exemplarische Vorgehensweise, der Aufwand an Abbildungen fällt unter Bilderebbe. Es geht dabei nicht um eine Missachtung von Massenphänomenen – das versuchte dieser Beitrag an vielen Stellen zu zeigen. Es geht um eine andere und vielleicht darf man sagen, nachhaltige Art ihnen zu begegnen.
Die universale Medienmaschine generiert ihren universalen Gegenstand
Nun kann man sich alle möglichen Freiheiten zum Rechner herausnehmen, und es könnte doch sein, dass die Differenz zum Digitalen unter der am Keyboard klappernden Hand zur digitalen Differenz oder Digitalität wird. Die müsste sich eigentlich auch und jederzeit ergeben, wenn man im Homeoffice arbeitet, schreibt und forscht und sich weder als Pionier noch als Verächter alles Digitalen beweisen will, ein Low-End-User halt, wie es in der Branche heißt. Man könnte dann vom Digital-Unbewussten sprechen, in Anlehnung an Benjamins Begriff vom Optisch-Unbewussten. Low End gleich Hidden End?
Es kam mir ein Text unter, der im Bestreben, nicht ein weiteres Paper, sondern ein großer Aufsatz zu werden, als idealtyischer Aufsatz im Zeitalter seiner elektronischen Pro- und Reproduzierbarkeit endete. Das Thema dieser zuerst bei Academia.edu (21 Millionen Papers, 100 Millionen User) eingestellten Arbeit ist der Bamberger Reiter, und das scheint nicht in Richtung digitale Differenz zu gehen, sondern schon wieder auf Re-Kanonisierung hinauszulaufen. Man muss freilich sehen, dass auch der neutrale und mit allem vollgestopfte Computer Re-Kanonisierung betreibt. Bibliometrische Beobachter von Open-Access-Zeitschriften stellen fest, dass Open Access keineswegs ökologische Vielfalt zur Folge hat; es werden stattdessen immer weniger Papers immer häufiger zitiert. Man nennt das die Googlization der Wissenschaften. In unserem Fall könnte man sagen, dass der Gegenstand der Arbeit selbst Hashtag- oder Tag-Qualitäten hat. Diese Höhe baut der Autor in Form eines Literaturberichts nach – acht Seiten sind es hier, im Normalfall eines Academia.edu-Papers weniger. Man verachte gerade diese Übung nicht als Traditionsrest. Es ist richtig, dass ein solches Resümee eigentlich gegen die genuine Möglichkeit der Hypertextualität verstößt, indem es die vielen Prätexte in einen traditionell linearen Forschungsbericht einspeist, aber so leicht lässt sich das Digital-Unbewusste nicht vergraulen. Zumindest nicht in diesem Fall, der möglicherweise ein Vorbote ist für vieles.
Der Apparat, welcher es dem Cliqueur und der Cliqueuse beim Literaturbericht ermöglicht, von einer Textebene zur nächsten und zurück in Sekundenschnelle zu wechseln, könnte mit dieser Wahrnehmung der Prätexte und Daten auf die Konstitution des Haupttextes abfärben. Grenzenlose Disponibilität ist gegeben, ohne Zweifel, ist aber immer noch zu funktionalistisch gedacht. Der Punkt ist: Wann und wie feiert und streichelt das Meta- und Multi-Medium Computer sich selbst? Dann würden wir von Digitalität pur sprechen. Unser Text referiert wie gesagt auf acht Seiten die Forschungsgeschichte; Heinz Gockel hatte dies 2006 auf 80 Seiten getan, aber die Länge ist nicht das Entscheidende, sondern der Titel und die Zielsetzung: „Der Bamberger Reiter. Seine Deutungen und seine Deutung”. Mit „seine Deutung“ meinte Gockel seine eigene, die letztgültige Deutung. Das entspricht dem marktgängigen Academia.edu-Paper, welches den Fächer der fortuna critica, wie in Italien der Literaturbericht heißt, gönnerhaft aufschlägt, um ihn dann um so entschiedener wieder zuzuklappen und mithilfe einer angesagten Methode und einer prestigebesetzten Autorität zu einer Deutung zu gelangen. Unser Autor dagegen lässt den Fächer einfach offen und verabsolutiert die Pluralform beziehungsweise führt sie ad infinitum, die einzige Domäne, die der Rechner als überlegen anerkennt. Anders als Gockel würde dieser Autor titeln: „Der Bamberger Reiter. Seine Deutungen sind seine Deutung“. Einer der drei Könige, Kaiser Konstantin, Friedensfürst, König Stephan von Ungarn, König Konrad III., König Philipp von Schwaben, der Endzeitkönig der Apokalypse etc. etc.: Fehlt uns ein Wissen, das der mittelalterliche Mensch hatte, um die Figur zu identifizieren? Die Antwort ist Nein: “This article […] argues that the sculpture was intentionally devised to produce a pure simulacrum (neither an historical nor an allegorical figure) receptive to the imaginative horizons of the viewers.” Also keine Identität, sondern ein “pures Simulacrum“, das der „Spekulation der Betrachter“ angeboten wird: „a speculation of its viewers, a wax upon which the subjective expectations are stamped”. Das Wort „intentionally“ deutet auf die traditionelle Instanz der Intention – des Künstlers? Des Auftraggebers? Muss offenbleiben, aber wirklich bedeutsam ist die Freiheitserklärung an die Adresse des Betrachters. Open Access [Wikidata, GND] zum Offenen Kunstwerk bereits in der ersten Hälfte des 13. Jahrhunderts!
Nun ist wohl nicht daran gedacht, dass der Betrachter von damals die Liste der oben aufgeführten Aspiranten im Geiste durchging und sich entschied; er hat wohl nur „irgendetwas“ assoziiert, „eine imaginäre Realität, von der Skulptur erzeugt“. Die lange Liste ist das Ergebnis historischer Forschung des 19. bis 21. Jahrhunderts; sie entsteht weitab vom Hohen Mittelalter, und an ihr ist – zumindest für diesen Autor – nur eines wichtig: ihre Vielzahl. Diese macht die meisten Interpreten nervös und erregt in ihnen nur den Wunsch nach Eindeutigkeit. Ihn aber inspiriert sie dazu, ihre Aktualität gewissermaßen von dem Medium sanktionieren zu lassen, das er im Moment benutzt. Was durch den Computer gegangen ist, nimmt „unter der Hand“, „technisch konstituiert“ notwendig die Gestalt des plurale tantum an. Man muss das dann „nur noch“ anerkennen und folgern, dass es immer so weiter geht und „subjektive Bedeutungen“, „living, changing, and imaginative meanings“ unablässig produziert werden. Damit ist eine höhere, eine transzendente Form des Vielen erreicht, qualitativ unendlich überlegen dem Extrakt, den Data-Mining aus den 1,8 Millionen Papers pro Jahr und den 2,1 Millionen Digitalisaten gewinnen könnte. Die Form der Vielheit ist als Inhalt anerkannt.
Der Rechner macht sich nicht nur bei der Bereitstellung und Kommunikation von allem nützlich. Wenn im Fall des Bamberger Reiters nicht entschieden und die Nichtlösung zur Lösung erklärt wird, dann erkennt sich das Universalgerät in dieser Universalfigur wieder und gelangt zu einer Nicht-Identität, die ohne Grenzen auskommen muss. Hans-Joachim Lenger hat das in seinem „Essay zur Differenz“ schon 2001 so erklärt: „Weil der Computer Simulation jedes anderen Mediums ist ‚und sonst nichts‘, ist er Rahmung als Zerfall jeder Rahmung oder, wie sich ebenso sagen ließe: Rahmung dieses Zerfalls jeder Rahmung.“Lenger fährt fort: „Er ‚ist‘ Universalmaschine, mit der sich die imago des Universellen selbst destruiert.“ Das können wir für diesen ganz besonderen Fall nicht unterschreiben, denn hier hat die Universalmaschine ihre imago geschaffen. „Er montiert Zitate und noch sich selbst als Zitat.“ So stimmt es wieder.
Medienrevolution und Kunstwissenschaft. Unter und vor dem Einfluss der Digitalisierung
Kunstgeschichte im Labor
The Digitized Turn
Kunstgeschichte: das Nachdenken über Fotografien
Kunstgeschichte ohne Orte
Towards a textured and embodied knowledge of place
Feldforschung in der Kunstgeschichte und museale Datenerfassung
Interdisziplinarität aus dem Rechner?
Digital gleich: der Tod des (einen) Autors
Bilderebbe
Das einzelne Kunstwerk und die Menge
Das unbedingte Kunstwerk, digital
Parallel zum Rechner mit dem Rechner arbeiten
Die universale Medienmaschine generiert ihren universalen Gegenstand