> > > LIBREAS. Library Ideas # 21

Download PDF @ edoc HU Berlin
urn:nbn:de:kobv:11-100205036

Rezension zu: Haug, Christine; Kaufmann, Vincent (Hrsg.): Die Digitale Bibliothek. Kodex. Jahrbuch der Internationalen Buchwissenschaftlichen Gesellschaft (IBG) 2011. Wiesbaden: Harrassowitz, 2012 – ISBN 978-3-447-06485-9


Zitiervorschlag
Ben Kaden, "Rezension zu: Haug, Christine; Kaufmann, Vincent (Hrsg.): Die Digitale Bibliothek. Kodex. Jahrbuch der Internationalen Buchwissenschaftlichen Gesellschaft (IBG) 2011. Wiesbaden: Harrassowitz, 2012 – ISBN 978-3-447-06485-9". LIBREAS. Library Ideas, 21 ().


Es ist in mehrfachem Sinn bemerkenswert, wenn die Internationale Buchwissenschaftliche Gesellschaft 2011 ein gedrucktes Jahrbuch einführt und dieses dem Thema Die Digitale Bibliothek widmet. Das geschieht nun zwölf Jahre nach der ersten Ausgabe des Jahrbuchs für Computerphilologie (Herausgegeben von Volker Deubel, Karl Eibl und Fotis Jannidis, Paderborn: mentis, 1999), das einen vielleicht nicht identischen aber doch ähnlichen Gegenstand aufgriff. Dazwischen liegt vor allem eine Entwicklung, bei der sich das Feld der damit verbundenen methodologischen und methodischen Kernfragen von der konkreten Philologie ein Stück weit öffnete und mittlerweile unter Labels wie Digitale Geisteswissenschaften und Culturomics wieder und weiter diskutiert wird. Walter Fanta fragte 2000 in seiner Besprechung des computerphilologischen Jahrbuchs:

„Wird also der Computereinsatz nicht die Kluft zwischen immer perfekter formalisierter Textbereitstellung und Textaufbereitung und einer gerade angesichts der unüberschaubaren Textmengen wieder luftig gewordenen Hermeneutik vergrößern?“

und:

„Muß eigentlich der Literaturwissenschaftler als Editor oder Analysator selbst programmieren können?“ [Fn [01]]

Beide Fragenkomplexe stellen sich heute immer noch ähnlich. Die Lektüre des Sammelbands stellt zwei Kontexte dafür bereit: (1) Die Diskussion um das Medium Buch und seine Erhaltbarkeit vor dem Hintergrund des Digitalen. (2) Und die Diskussion um die Auflösung des Buches durch digitale Technologien, wie sie beispielsweise in den Digital Humanities anklingen.

Ob der Anspruch, den Buchwissenschaften und benachbarten Disziplinen „eine Veröffentlichungs- und Diskussionsplattform zu bieten und zugleich als Archiv für die Auseinandersetzung mit Themen, Methoden und Theorien, Handlungsfeldern und aktuellen Trends des Mediums Buch zur Verfügung zu stehen“ (S.VII) jedoch als reine Druckausgabe noch zeitgemäß ist, steht freilich auf einer anderen Seite.

Ein Periodikum zu „aktuellen Fragen zur Entwicklung der gegenwärtigen und zukünftigen Buch- und Medienwelt“ (ebd.) trifft zweifellos den Zeitgeist und zwar auch der Bibliothekswissenschaft. Wobei sich das Phänomen der Digitalen Bibliothek hauptsächlich als thematischer Orientierungspunkt erweist. Die Beiträge selber treffen diesen nicht immer exakt, sondern präsentieren sich als vielgestaltiger, als man es womöglich erwarten würde: Bibliothek, Digitalisierung und Geisteswissenschaften (und ihrer Digitalisierbarkeit) sind die eigentlichen Koordinaten der Publikation.

Thomas Stäcker bleibt aber zunächst bei der Bibliothek und eröffnet in einer Art Vorwort mit der „Suche nach einem Phantom“. In der Tat zeichnet sich das Digitale dadurch aus, dass es nicht wirklich (materiell) greifbar zu machen ist. Thomas Stäcker räumt mit der naiven Vorstellung auf, das Internet selbst könne schon als „virtuelle Bibliothek“ verstanden werden. Was uns heute absurd erscheint, war noch vor wenigen Jahren eine Grundannahme. Aber: „Diese in den Anfangszeiten gelegentlich schwärmerisch vorgetragene These verliert mit der fortschreitenden Kommerzialisierung des Netzes und der Monopolisierung des Zugangs zu ihm zusehends ihren Nimbus.“ (S.3)

Vielleicht war die Metapher der Bibliothek eine Art Steigbügelhalter des Infoversums des frühen Internets. Doch spätestens seit der Verlagerung des Schwerpunkts von dem Internet als Ort des Informationsabrufs zum Internet als Ort der Repräsentation (des Selbst), also mit dem Web 2.0, scheint sehr deutlich, welche Gebrauchsdifferenzierungen des Mediums sich einstellen mussten. Und ebenso, dass die Digitale Bibliothek darin nur noch ein Fenster unter vielen sein kann. Das Internet emanzipierte sich also nachhaltig von der Bibliotheksmetapher – meine ich als Rezensent jedenfalls, weshalb mir Thomas Stäcker fast ein wenig zu vorsichtig argumentiert.

Er akzentuiert seine Argumentation jedoch auch schärfer auf den Umgang mit Büchern im Internet und thematisiert besonders Akteure wie Google, dessen Google Books-Programm und als Gegenstück die nicht-kommerziellen Projekte Deutsche Digitale Bibliothek (und Europeana). Sein Thema ist weniger das Web an sich. Ihn interessiert viel mehr die Verschiebung in der Wahrnehmung des Webs und besonders auch der Bibliotheken, für die Google ähnlich schwer greifbar scheint – wahlweise ist es Vorbild, Partner oder Feind – wie es ihre mögliche Rolle im Digitalen.

Die Idee der vernetzten umfassenden Digitalen Sammlung ist natürlich nachgewiesen älter als Google Books. Der Unterschied bei Google ist, dass ein solches Unternehmen mit viel Geld und viel zielstrebigerem, konsequenterem und produktorientierterem Ansatz an solch ein Unterfangen herangeht. Es setzt Standards und wartet nicht auf eine Abstimmung im allgemeinen Interesse unter nicht immer durchgängig konsensorientierten Projektpartnern. Ob die Deutsche Digitale Bibliothek und Europeana wirklich gegenbalancieren können, „um der Monopolisierung und vor allem Kommerzialisierung der Zugangswege entgegenzuwirken“ bleibt fraglich. Denn im Gegensatz zu den kommerziellen Monopolisten kosten diese Angebote (Entwicklung und Betrieb bei freiem Zugang aber ohne direkte Einnahmen) anstatt (früher oder später) Umsätze einzuspielen. Zudem verstehen es die kommerziellen Akteure durchaus geschickt, sich ihre Zielgruppe dorthin zu steuern, wo sie sie haben möchten.

Andererseits betont Stäcker die Hinwendung zu den Daten vor dem Horizont semantischer Durchdringungstechnologien. Ein konsequent ausentwickeltes Semantic Web würde dann jedoch womöglich von den Büchern wenig anderes überlassen, als die Rolle eines Anschubmaterials. So wie die Bibliotheksmetapher sukzessive relativiert wird, könnte das Buch selbst in Umgebungen, die vielleicht noch Digitale Bibliothek heißen, alsbald Bedeutung einbüßen.

Man könnte aber auch Stefan Münker folgen, der Digitalisierung und Digitale Bibliothek aus dem Blickwinkel der Philosophie betrachtet. Das Phantomhafte der Digitalen Bibliothek ist für ihn vor allem auch im Wissensbegriff selbst zu suchen. Und in unseren Vorstellungen von unserem Umgang mit Wissen und der Erzeugung von Wissen (definiert als: „Überzeugung mit nachvollziehbaren Gründen“) im Digitalen.

Münker bleibt hinsichtlich der Philosophie gelassen. Während die Digitalisierung „ihren Weg zu Ende gehen […] und nach ihrem Ende wird etwas anderes kommen [wird]“, besitzt die Philosophie für ihn in ihrer dreiteiligen Aufgabe (das Klären von Begriffen, das Hinterfragen ihrer Bedeutung und die Problematisierung ihrer Sinnhaftigkeit) eine Art Ewigkeitsanspruch. Jedenfalls solange wir in Begriffen operieren. Das nämlich lässt sich nach jetzigem Stand nicht an Maschinen delegieren und so lautet denn auch der Satz des Beitrags, der sich als Motto geradezu aufdrängt: „Wer denken nennt, was Computer tun, der sagt weniger über Computer als über sein Menschenbild.“ (S.39)

Weil Stefan Münker die Reduktion des Denkens auf einen quasi-maschinellen Regelprozess an sich ablehnt, kann er ebenso entspannt auf Distanz zu Digitalisierungskassandren wie Nicholas Carr und Frank Schirrmacher gehen. Den wichtigen Gedanken verrät er recht früh in seiner Darstellung: Das binäre Prinzip der Differenzierung, wie es kennzeichnend für die Digitalität ist, selektiert bereits auf der Teilhabeebene vor. Nur wer entsprechende Ressourcen besitzt, kann diesen Bereich auch wirklich prägen.

Auch die Binarität selbst wirkt inhaltlich mindestens selektiv, eventuell sogar als Reduktion. Denn: „einzig was sich in binäre Dateien übersetzen lässt, [findet] in die Handlungs- und Kommunikationszusammenhänge der digitalen integrierten Welt Eingang […]“ Und das ist eben nicht alles, was in der Welt der Fall ist. Jedoch wissen wir natürlich nicht, ob nicht perspektivisch mit Ergänzungstechnologien womöglich Phänomene binär übersetzbar werden lassen, die bisher der Digitalisierung entzogen bleiben.

Auch gibt es wahrnehmbar Emergenzeffekte, die Phänomene nach sich ziehen, die in der analogen Welt nicht möglich sind und mit denen sich Stephan Münker an anderer Stelle (Emergenz digitaler Öffentlichkeiten: Die Sozialen Medien im Web 2.0. Frankfurt: Suhrkamp, 2009) bereits ausführlich befasste. Die dazugehörige Bilanzierung könnte Baustein einer von Stephan Münker so genannten „Digitalisierungsabschätzung“ sein. Eine Reflexion darüber, wie digitale Kommunikationsstrukturen die dialogische Abbildung des philosophischen Denkens berühren könnten, hätte vermutlich den Rahmen des Beitrags zu weit gedehnt. Stephan Münker deutet jedoch an, „dass die Philosophie von der intrinsischen Intermedialität des Digitalen lernen kann und sich anderen als schriftbasierten Rationalitäts- und Wissensformen verstärkt wird öffnen müssen […]“. Er beruhigt aber zugleich: Das dazugehörige Denken ist auch langfristig so und so nur im Kopf denkbar.

Den Rahmen für die dazugehörige Wissenschaftspraxis stellen allerdings die Maschinen. Und das ist zu bedauern, findet Vincent Kaufmann (u.a. Herausgeber des Bandes) in seinem Beitrag. Er bedient sich der hohen Stilschule der Polemik, überzeugt damit aber leider nicht durchgängig. Die wirklichen interessanten Fragen versteckt er nämlich in den Fußnoten und beschreibt ansonsten reichlich hoffnungslos, was jeder kennt: Das im Wissenschaftsalltag erstes das Netzwerk zählt, als zweites die Drittmittel und in dessen Schatten eventuell noch die Publikationen, die freilich nur als Liste gelesen werden.

Es wäre sicher aufschlussreich gewesen, die Vermutung, Social Media bewirke für die Netzwerke das, was das Aufkommen der industriellen Buchproduktion für den Zugang zu Bildungswelt zur Folge hatte, neutraler zu erörtern. (So wie es Anke Vogel in ihrem Beitrag unternimmt, der das Phänomen des Sozialen Lesens und „privater digitaler Bibliotheken“ als Thema der Buchwissenschaft erörtert. Von der Autorin erschien eine umfangreiche Auseinandersetzung (nämlich als Dissertation) mit diesem Themenfeld. [Fn [02]])

Wenn Vincent Kaufmann stattdessen noch in eine denkbar abgewetzte Kiste greift, um die These, das Web 2.0 verhalte sich zu digital gestützter Forschung wie einst die Videokassetten zur Pornographie, herauszuziehen, ist das zwar anschaulich, nur in der Stoßrichtung eben auch splitterfasernackt und für die Argumentation schlicht unfruchtbar.

Dann stellt er wieder durchaus treffend den Übergang zwischen quantitativer Literaturwissenschaft zur Kulturwissenschaft heraus. Möglicherweise ist er aus seinen Erfahrungen mit dem Wissenschaftsbetrieb auch hinsichtlich der Zukunft der Hermeneutik berechtigt desillusioniert. Vielleicht finden das Einzelwerk sowie die individuelle vertiefend-deutende Auseinandersetzung damit tatsächlich kaum mehr eine Nische im kollektiven Rauschen der Sammelbände und der „Coffee and Networking“-Sessions auf den Tagungen. Aber was folgert man daraus? Exit oder Voice, wenn man schon Loyality ablehnt? [Fn [03]]

In jedem Fall sollte man für so eine Attacke überzeugendere Beispiele heraussuchen: „[D]ie neuen Priester heißen nicht mehr Mario Vargas Llosa oder Orhan Pamuk sondern Bill Gates und Steve Jobs“ als Stützung des Arguments eines vermeintlichen Siegs des Algorithmus über das Argument, ist weder originell noch stichhaltig. Die beobachtete und nüchterner in Fußnote 3 angedeutete Verschiebung einer Art wissenschaftspraktischen Gebots von den diskursiven Elementen (nach Foucault) des „Sagen-können“, „Sagen-Dürfen“ und „Sagen-Müssen“ hin zu einem nun notwendigen „Auftreten mit“ (und – so wäre zu ergänzen – „Meiden von“) verweist dagegen auf etwas, womit sich „digitalisierte“ Geisteswissenschaften, d.h. in diesem Fall solche, die sich die kulturellen Effekte der Digitalisierung zum Gegenstand nehmen, sinnvoll beschäftigen könnten.

Zum Beispiel mithilfe von Wortfrequenzanalytik, einem denkbar traditionellen Verfahren des Humanities Computing. Ernst Fischer demonstriert in seinem Beitrag sehr anschaulich, was dies im Zeitalter von Google-Books und dem dazugehörigen Ngram-Viewer bedeuten mag. Neben einem Abriss der noch überschaubaren Begleitdebatten präsentiert er Beispielanalysen zu buchwissenschaftlichen Fragestellungen (beispielsweise für Buchmarktanalysen). Sein nüchternes Fazit zum Werkzeug (in der derzeitigen Funktionsweise):

„Mit dem Ngram-Viewer lassen sich hauptsächlich Bestätigungen von vorhandenem Wissen gewinnen, günstigenfalls Anhaltspunkte für weitere Nachforschungen, kaum jedoch originäre Forschungsergebnisse.“

Darüber hinaus weist er auf das didaktische Potential des Werkzeugs hin: Es eignet sich exzellent zum Aufwerfen von Fragen. Antworten, die wissenschaftlichen Ansprüchen genügen, sind die Beschränkungen von Korpus und Verfahren freilich eher abträglich – was all diejenigen beruhigen dürfte, die in den Culturomics und quantitativen Geisteswissenschaft eine allzu dunkle Wolke heranziehen sehen. Ernst Fischer fragt, ob man dahinter wirklich ein Paradigmenwechsel für die Geistes- und Kulturwissenschaften vermuten darf und zieht eine naheliegende Parallele zur Bibliometrie, über die sich trefflich streiten ließe. Im Ergebnis gesteht er den n-grammatologischen Ansätzen der Culturomics nach Jean-Baptiste Michel, Erez Lieberman Aiden et al. [Fn [04]] den Status eines Impulsgebers zu. Und für die Bibliometrie sieht er – durchaus nachvollziehbar – aus dieser Art von Analytik ein Innovationspotential. Andererseits hat Google mit seinen Scholar Metrics diesbezüglich bereits frische Anschluss- bzw. Messpunkte in der Produktpalette.

Hat Ernst Fischer also die Grenzen rein datenbasierter Kulturwissenschaften vor Augen, sieht Gerhard Lauer die Dominanz von Daten und Datenverarbeitung in nahezu jeder Wissenschaft. So werden die Ergebnisse von Wissenschaft, nämlich die wissenschaftlichen Daten selbst zu Entitäten der Welt. Das dahinter stehende Regelkreisverständnis sorgt dafür, dass für die Wissenschaft im 21. Jahrhundert fast zwangsläufig Fragestellungen aufkommen müssen, die sich mit der Datendominanz und den Verarbeitungsprozessen arrangieren. Tony Hey aus der Forschungsabteilung von Microsoft bezeichnet diese Entwicklung bekanntlich als viertes Paradigma. [Fn [05]] Die datenintensive Wissenschaft ergänzt damit die Paradigmen die der experimentellen, theoretischen und rechnenden Wissenschaft. Das auch die bisherigen drei Paradigmen wenig mit der geisteswissenschaftlicher Praxis der Deutung und der Kritik zu tun haben, zeigt eigentlich bereits, wie untauglich dieses Paradigmenmodell im vorliegenden Bezugsfeld ist. Hier wird weitgehend eine szientofizierte Geisteswissenschaft als unabwendbares Zukunftsbild ausgemalt. Möglicherweise läuft das, was man unter Digital Humanities versteht wirklich in diese Richtung. Weniger affirmativer Positionen könnten sich allerdings an die Umdeutung sogar dieses Begriffs machen: Digital Humanities könnten sich auch problemlos anthropologisch mit der Frage auseinandersetzen, wie sich das Menschsein im Sinne einer sinnlesenden und -stiftenden Existenz mittels digitaler Medien abbildet und verändert.

Sicher kann man dafür auch Methoden aus dem E-Science-Bereich heranziehen. Zugleich aber bliebe die Notwendigkeit einer kritischen Analyse auch der Paradigmenkette selbst, die als Erklärungsmodell von Erkenntnismethoden doch arg reduziert wirkt und mit den Geisteswissenschaften wie wir sie kennen, wenig bis gar nichts zu tun hat.

Die Schwäche des Beitrags von Gerhard Lauer liegt darin, dass er hier nicht differenziert und ein Einbahnstraßenschicksal auch für Wissensgesellschaft (mittlerweile als Begriff eine ziemlich hohle Trommel), Wissenschaft und wissenschaftliche Bibliotheken entwirft. Letzteren blieben die Daten, die sie als Dienstleister der Wissenschaft analog zu bisherigen Praxis im Umgang mit den Bibliothek möglichst nachhaltig und offen verfügbar sammeln, erschließen und verfügbar machen sollen:

„Viele Bibliotheken haben längst damit begonnen, Daten über die klassischen Katalogdaten hinaus aufzunehmen, Repositorien einzurichten, ›Grids‹ zu unterstützen und in virtuellen Forschungsumgebungen bis zur Ununterscheidbarkeit mit Laboren, Rechenzentren und Museen zusammenzuarbeiten.“

Der hier gespannte Bogen besitzt schon eine gehörige Weite und mitten darin steht die Frage, inwieweit es sinnvoll ist, dass Bibliotheken auf ihre Ununterscheidbarkeit zu anderen Wissenschaftsinfrastrukturen hin arbeiten.

Wie in weiser Voraussicht haben die Herausgeber den Aufsatz von Uwe Jochum nachgestellt. Ihm dürften die Aussichten Gerhard Lauers als veritabler Nachtmahr erscheinen. Es gibt wohl niemanden in der deutschen Bibliothekslandschaft, der sich vergleichbar vehement und ausdauernd kritisch mit dem Eindringen von Digitaltechnologien in die Wissenschaft befasst. Sein Beitrag für diesen Band schlägt jedoch nicht in die Kerbe, die man vielleicht erwartet. Er entpuppt sich zunächst als angenehme und mit einigem Erkenntnisgewinn zu lesende phänomenologische Auseinandersetzung mit der Entwicklung von den Wandmedien über die Handmedien zu den Digitalmedien. Handmedien wie Bücher, so lässt sich die Position vielleicht verdichten, ermöglichen ein optimales Verhältnis zwischen medialer Stasis (also Trägerstabilität) und Beweglichkeit im Raum. Sie sind zugleich beständig und rekontextualisierbar. Archive und Bibliotheken sind Ergebnisse dieser Wechselwirkung und „gerade auch als Organisationsinstrumente von Kontextbestimmungen notwendig“ (S.93). Dass die Digitalität dagegen nicht re- sondern dekontextualisiert stellt für Uwe Jochum den dystopischen Gehalt der „technikparkbedingten Dynamik [dar], die alles einem ›Zug ins Futur‹ unterwirft“. Allerdings verliert sein Text an dieser Stelle umgehend an Überzeugungskraft:

„Wo sich die Handmedien in der Sammlung zu Archiven und Bibliotheken formieren und sich an diesen Orten der Gedächtnisraum unserer Überlieferung sinnlich erfahren lässt, ist eine Sammlung von Handys oder iPads […] nach kurzer Zeit nichts weiter als ein dysfunktionaler Schrotthaufen […]“

Da weiß man nicht, ob es sich um einen eigenwilligen Humor handelt oder um einen grotesken Kategoriensprung ohne Sinn. Auch die nachgesetzte Entkräftung genau dieses Einwandes wirkt argumentativ eher dürftig und demonstriert vor allem, dass er Prämissen heranzieht, die eigentlich niemand ernsthaft vertreten kann: „›das große eine Netz‹“ als Medium, „das auf seiner medienmateriellen Ebene keine Grenzen mehr kennt und daher keine humanen Kontexte mehr zu stiften vermag.“ Die Dehumanisierung durch Digitaltechnik ist ein bekanntes Leitmotiv, das allerdings auch ein finsteres Menschenbild voraussetzt, nach dem wir uns samt und sonders lemminghaft in diesen binären Abgrund stürzen. Man könnte gegenpolemisieren, dass uns die vermeintlich überlegenen Handmedien in der Kulturgeschichte anscheinend nicht dagegen immunisiert haben, plumpen Heilsversprechungen einer blitzblanken Oberflächenindustrie zu widerstehen.

Eric W. Steinhauers locker-sachliche Problematisierung deutet dagegen viel überzeugender an, warum ein eventuelles Allheilversprechen der Digitaltechnik allein schon aus praktischen Gründen keine Chance auf Einlösung besitzt. Ursächlich ist die Verschiebung des entscheidenden Rechtsgebiets für Bibliotheken von den vorwiegend über das Sachenrecht klar organisierbaren Verfahrensweisen mit Büchern auch in Lesesaal- und Leihverkehr zur Dominanz des Urheberrechts im weitgehend erschöpfungsgrundsatzfreien Bereich elektronischer Medien. Das Urheberrecht ist „letztlich das Benutzungsrecht der digitalisierten Bibliothek“. Die Digitalisierung der Inhalte und deren Lösung vom materiellen Träger verschieben die Benutzungsgrundlagen der Bibliotheken. Eric Steinhauer verdeutlicht die darin liegende Gefahr einer Kollision mit dem immerhin dem Absicherungsanspruch für das Grundrecht der Informationsfreiheit. (vgl. dazu § 1 ThürBibG: „Sie [die Bibliotheken] gewährleisten damit in besonderer Weise das Grundrecht, sich aus allgemein zugänglichen Quellen ungehindert unterrichten zu können.“ [Fn [06]]) Nur ist das anscheinend noch nicht allen BibliothekarInnen bewusst: „Wir haben es hier nicht mit einem netten Hobby dienstlich nicht ausgelasteter Kollegen zu tun, sondern mit dem schlichten Versuch, im digitalen Bereich die alten grundrechtsfreundlichen Nutzungsverhältnisse des Anstaltsrecht wenigstens in Ansätzen zu gewährleisten.“

Der Verleger Dietrich Olms würde vielleicht (im Duett mit Uwe Jochum) entgegnen: Dann bleibt doch einfach den Handmedien treu. Aber für wissenschaftliche Bibliotheken ist das verständlicherweise keine zeitgemäße Lösung und selbst der Olms-Verlag verschließt sich trotz der heftigen Skepsis des Verlegers keineswegs dem Digitalmedienmarkt: „Einige Titel werden in Kürze auch als E-Book angeboten, um die Nachfrage bei Bibliotheken und deren Nutzern zu eruieren.“ Abgesehen davon ist der Beitrag des Verlegers ein Muster dafür, wie schwierig Prognosen zur Entwicklung des Buchmarkts sind und wie kurz ihre Halbwertszeit. Die explosive Entwicklung des E-Book-Marktes in den USA, die wenigstens zeitweilige Dominanz des Kindle und die Benutzung eines öffentlichen Verkehrsmittels in einer deutschen Großstadt lassen bereits die einführenden Prämissen Dietrich Olms‘ Makulatur werden.

Frieder Schmidt eröffnet seinen Beitrag mit einem Klischee, für das der Buchmarkt auch jenseits des HTT-Protokolls verhältnismäßig nur in geringem Umfang bestätigende Beispiele anbietet: „das Buch als Medium des Wahren, Schönen und Dauerhaften“. Im Anschluss zerlegt er es für die Gegenwart in einer äußerst komprimierten und trotzdem leichtgängigen Darstellung der Buchgeschichte und des Wandels der Rolle des Mediums in der Gesellschaft. Das Buch, so seine These, existiert zwar noch und in großer Vielfalt. Seine Bedeutung als Form, die die Dauerhaftigkeit, Beständigkeit und Gültigkeit unterstreicht, wird jedoch relativiert. Der Funktionswandel im Umgang mit Text und Schreiben führt zu zerlegten digitalen Textobjekten, die, in Mark-Ups aufgegliedert, auf der Inhalts-, Struktur- und Formatebene variabel und vielfältig verarbeitbar sind. Bücher sind in der Regel rundum maschinenprozessierte Objekte. Allein die Rezeption ist beim Papierbuch noch ausgeklammert. Die Dominanz des Mediums selbst erscheint jedoch schon längere Zeit nachhaltig gebrochen.

Derartige Ansichten und Schlussfolgerungen sind sicher weder neu noch überraschend. Aber dem Band tun sie schon allein als Gegengewicht zum Beitrag von Dietrich Olms ganz gut. Die Schlussfolgerung für sein eigenes Fach fällt bei Frieder Schmidt jedoch etwas irritierend aus:

„Mediengeschichtlich basierte Buchgeschichtsforschung muss diese in Folge der digitalen Revolution eingetretene Relativierung der Stellung von Buch bzw. Kodex akzeptieren, wenn sie kritische Wissenschaft sein und bleiben will.“

Was auf den ersten Blick an einen unstrittigen Allgemeinplatz gemahnt, hinterlässt auf den zweiten die Frage, inwieweit sich ein Hinnehmen der sich verschiebenden Rahmenbedingungen mit dem Ansatz der Kritik verbinden kann.

Nicht nur Bücher, sondern wissenschaftliche Zeitschriften verlieren in ihren primären Funktionen, vor allem als Gatekeeper, an Bedeutung. So jedenfalls lautet die These Bozena I. Mierzejewska, deren Beitrag den Band beschließt: „Man sollte nicht davon ausgehen“, schreibt sie, „dass die Journals von heute automatisch auch eine Rolle bei der wissenschaftlichen Kommunikation von morgen spielen werden.“ Damit benennt sie zugleich das Grundproblem jeder Wissenschaft, die sich selbst zum Gegenstand hat: Man arbeitet so, als hätte wäre man autonom zum Geschehen und vernachlässigt die Tatsache, dass der eigene Diskurs selbst Bestandteil der permanenten diskursiven Überarbeitungen der Werte und Wünsche und Ziele der Community ist. Wie sehr sich diese Verstärkerfunktion bestimmter Annahmen im Diskurs auf die tatsächliche Entwicklung auswirkt, wäre sicher ein dankbarer Ansatz für eine kritisch-selbstreflektierende medienwissenschaftliche Arbeit.

Eventuell ist aber gerade diese Unsicherheit im Umgang mit den derzeitigen Entwicklungslinien der Digitalisierung von Kommunikationsstrukturen nicht nur in der Wissenschaft zeittypisch. Auch wenn das Jahrbuch weder bestehende Ansichten gründlich umstülpt noch programmatisch den Aufbruch zu neuen Horizonten verkündet: In der Weise, wie es ganz heterogene und parallel stehende Annäherungen an den Themenkomplex „Digitale Bibliothek“ übersichtlich abbildet, bleibt es eine maßgebliche Publikation. Und auch, indem es eine aufschlussreiche Bandbreite von Anschlusspunkten für diverse Diskussionslinien zur Entwicklung digitaler Kommunikations- und Forschungsstrukturen in den Buch- ergo Geisteswissenschaften versammelt.


Fußnoten

[01] Walter Fanta: Jahrbuch für Computerphilologie [Rezension] In: Andreas Brandtner, Max Kaiser, Volker Kaukoreit, Hrsg.: Sichtungen. Archiv – Bibliothek – Literaturwissenschaft. 2000 / 3. Jahrgang. Wien: Turia + Kant, 2001, S.122-126. Hier: S. 125f.). [zurück]

[02] Anke Vogel (2011) Der Buchmarkt als Kommunikationsraum: Eine kritische Analyse aus medienwissenschaftlicher Perspektive. Wiesbaden: VS Verlag, 2011. [zurück]

[03] Zur Differenzierung dieser Anspielung vgl. Albert O. Hirschman (1974) Abwanderung und Widerspruch. Tübingen: Mohr. Oder: http://de.wikipedia.org/wiki/Exit_und_Voice. [zurück]

[04] Vgl. Jean-Baptiste Michel, Yuan Kui Shen, Aviva Presser Aiden, et al. (2011) Quantitative Analysis of Culture Using Millions of Digitized Books. In: Science Vol. 331 No. 6014 S. 176-182. DOI: 10.1126/science.1199644. [zurück]

[05] Tony Hey (2009) The fourth paradigm : data-intensive scientific discovery. The fourth paradigm : data-intensive scientific discovery. Redmond: Microsoft Research. [zurück]

[06] http://bit.ly/SzLY58 [zurück]


Ben Kaden ist Bibliotheks- und Informationswissenschaftler und Gründungsherausgeber des eJournals LIBREAS. Library Ideas.