Download PDF @ edoc HU Berlin
urn:nbn:de:kobv:11-10097025

Signal. Information. Zeichen. Zu den Bedingungen des Verstehens in semantischen Netzen.


Zitiervorschlag
Stefan Gradmann, "Signal. Information. Zeichen. Zu den Bedingungen des Verstehens in semantischen Netzen.". LIBREAS. Library Ideas, 14 ().


Joseph Weizenbaum gewidmet

1. Verstehen – ohne zu lesen?

„A bitstream appears to be the future of information“ hat Michael Seadle in seiner Antrittsvorlesung mit dem Titel „The Work that Vanished“ geendet und zu Recht darauf hingewiesen, dass eine der elementaren Herausforderungen an Bibliotheken – wenn sie denn Bestand haben sollen – eben darin besteht: diesen bitstream mit so viel Bedacht und Methode zu erhalten, dass unsere Zeiten nicht dereinst als die 'dunklen Jahrzehnte' der Moderne erscheinen mögen, aus denen so wenige und fragmentarische Reste von Wissenschaft und Kultur konserviert bleiben könnten wie aus den 'dunklen' Jahrhunderten nach dem Untergang der antiken Kulturen.

Und doch: setzen wir einmal voraus, dass Denken und Forschen der Bibliotheks- und Informationswissenschaft in dem von Michael Seadle geforderten Sinne von Erfolg gekrönt sind. Wir wären dann in der Lage, nicht nur den bitstream zuverlässig zu konservieren, sondern wir wären sogar imstande, dauerhaft Strukturen in diesem bitstream zu erhalten, welche die in ihm verfassten komplexen Kultur- und Informationsobjekte langfristig so zuverlässig in signifikante Unter-Einheiten dekomponierbar machen, wie dies jahrhundertelang die Seitenzählung unserer Bücher und Zeitschriften erlaubt hat. Wir hätten dann gewaltige Akkumulationen von bits, wir verfügten über Strukturen – und doch, so behaupte ich, hätten wir nicht viel in der Hand: denn wer könnte all dies verstehen?

Angesichts von Milliarden und Abermilliarden persistent verfügbarer digitaler Informationsobjekte wird es ja schlicht nicht mehr möglich sein, allein durch 'Lesen' und menschliche, intellektuelle Aktivität diese Informationsmassen gedanklich zu durchdringen – zumindest soweit, dass immerhin eine im jeweils gegebenen Kontext angemessene Auswahl dieser Objekte möglich würde! Und selbst eine solche kompetente Auswahl relevanter Informationsobjekte wäre nicht mehr im konventionellen Sinne lesbar – es sei denn wir würden weite Teile der Menschheit als Bibliothekare Zwangs- und Dauerverpflichten: eine vielleicht gar nicht unattraktive, politisch jedoch wohl kaum durchsetzbare Option.

In seinem Aufsatz „What do you do with a million books?“ hat Greg Crane (2006) das Ausmaß der mit diesem Vorgang verbundenen Herausforderung am Beispiel der Massendigitalisierung durch GoogleBooks angedeutet. Crane bemerkt zu Recht, dass mit den nun gegebenen Technologien und Initiativen nicht nur Millionen digitalisierter Bücher simultan verfügbar werden – diese werden auch durch die Möglichkeiten der maschinellen Erkennung von Binnenstrukturen und beispielsweise Namensentitäten in einer ganz neuen Granularitätsstufe als Aggregationen diskreter Einheiten schon im Retrievalkontext präsent.

Dies war in traditionellen Bibliothekskatalogen undenkbar, in denen ein Katalogisat von wenigen hundert Zeichen eine Informationsmenge von typischerweise einigen Millionen bytes repräsentierte. In der von Crane beschriebenen Beispielsammlung von dreihundert Bänden amerikanischer Literatur des 19. Jahrhunderts mit insgesamt 55 Millionen Wörtern hingegen können schon derzeit gängige Algorithmen der Namenserkennung 12 Millionen diskrete Einheiten automatisch kennzeichnen. Und selbst wenn es sich hier um einen Sonderfall mit einem hohen Anteil historischer Dokumente und Nachschlagewerke handelt, so sind die von Crane beschriebenen Systeme doch in der Lage, auch in beliebigen Buchobjekten immerhin jeweils tausende Namensentitäten zu erkennen.

Die Anzahl der diskreten, digital prozessierbaren und semantisch unterscheidbaren Einheiten steigt also durch Zuwachs in der Masse und zugleich drastisch gesteigerte Granularität gleich um mehrere Größenordnungen. Angesichts dessen benötigen wir neue Werkzeuge, um große Mengen digitaler Informationsobjekte einschließlich ihrer Konstituenten gedanklich zu organisieren und können dabei nicht mehr auf das althergebrachte bibliothekarische Katalogparadigma zurückgreifen. Wir müssen Mittel finden, bislang unvorstellbare Aggregationen strukturierter digitaler Informationen zu verstehen oder zumindest verstehbar zu machen. Dies ist der zu Michael Seadles Botschaft komplementäre Imperativ: sicherstellen, dass das hoffentlich nicht verschwundene Werk auch noch verstanden werden kann, und zwar unter den Bedingungen digitaler, netzbasierter Informationsorganisation!

Wir müssen also – dies meine erste These – imstande sein, digitale Informationsobjekte zu verstehen, ohne sie sämtlich zu lesen!

Und um diesem Zauberwort 'Verstehen' näher zu kommen – so das Postulat dieser Vorlesung – müssen wir auch als Informationswissenschaftler neu und gründlich nachdenken über das Verhältnis dreier Ebenen von Digitalität: unterscheiden müssen wir digitale Signale – den bitstream – als Trägermedium von digitalen Informationen auf syntaktischer Ebene und diese wiederum absetzen gegenüber digitalen Zeichen als Bedeutungsträgern auf der semantischen Ebene.

2. Vom Glück des Verstehens: Die Amsel

Wenn man kompetent und wissenschaftlich seriös vom Verstehen sprechen will, vom 'Interpretieren', von der 'Hermeneutik' gar, kommen Jahrtausende philosophischer Tradition ins Spiel, die unmöglich in wenige Minuten zu pressen sind. Da ich nun aber annehmen darf, dass den meisten von Ihnen zumindest gewichtige Aspekte dieses Zentralmotivs meiner Professur (denn was wäre 'Wissen' ohne 'Verstehen'?) ohnehin geläufig sind, gestatten Sie mir statt dessen zur Illustration der gedanklichen Grundfigur meiner Vorlesung einen etwas überraschenden Ausflug in die schöne Literatur. Die Rede ist von Robert Musils Erzählung „Die Amsel“, die ich kursorisch als Parabel des Verstehens lesen möchte. [Fn1]

Im Kern besteht „Die Amsel“ aus drei scheinbar kaum untereinander zusammenhängenden Geschichten, die ein Mann mit dem seltsam abstrakten Namen Azwei seinem Freund Aeins erzählt. Diese Begebenheiten stehen zusammen gesehen an der Grenze zwischen Geräusch und Sprache. An der Grenze also zwischen dem ungegliederten Laut und der Sprache, die in sich different ist und damit Differenzierung möglich macht. Erst Sprache schafft 'Welt' im eigentlichen Sinne, indem sie die ungestaltete Masse der auf einem Menschen hereinbrechenden Eindrücke gliedert und damit begreifbar macht.

Auf der seltsamen Zwischenstufe zwischen beiden Bereichen, von der Musil eine Ahnung zu geben versucht, ist der Zustand der Entropie, in dem sich die Welt vor Einsetzen des sprachgeleiteten Verständnisses darbietet, noch kaum verlassen. Aus dieser Zwischenwelt befreit uns nur der Schlaf - oder eben die Sprache.

In diesem Zustand, einer Art weißes Rauschen der Dinge, in dem er die Welt nicht mehr versteht, befindet sich Azwei zu Beginn der ersten Geschichte. Er hat in seinem Berliner Haus eine durchwachte Nacht hinter sich, ist gerade im Begriff, einzuschlafen – doch dann heiß es: „Es kann mein letzter wacher Eindruck gewesen sein oder ein ruhendes Traumgesicht. Dann wurde ich durch etwas Näherkommendes erweckt; Töne kamen näher.“ (Musil 1928, S. 551)
Und trotz der kurzzeitigen Enttäuschung ob der Tatsache, dass das in der Folge vernommene Klingen nicht – wie zuerst gedacht - das Lied einer Nachtigall, sondern der Ruf einer profanen Amsel war, ist das Fazit dieser durchwachten Abschieds-Nacht „Es hatte mich von irgendwo ein Signal getroffen.“ Dies Signal, der Ruf der Amsel, verändert Azweis Leben, bringt ihn dazu, seine Frau, sein Heim zu verlassen. Auf Wanderschaft. In die Einsamkeit. In den Krieg.
Und aus dem Krieg erzählt er seine zweite Geschichte: die Geschichte vom Fliegerpfeil. Er befindet sich in einer Gebirgsstellung in Norditalien, die eines Tages von einem feindlichen Flugzeug überflogen wird. Und hier beginnt die zweite Begebenheit:

„In diesem Augenblick hörte ich ein leises Klingen, das sich meinem hingerissen emporstarrenden Gesicht näherte […] im gleichen Augenblick wusste ich auch schon: es ist ein Fliegerpfeil. Das waren spitze Eisenstäbe, nicht dicker als ein Zimmermannsblei, welche damals die Flugzeuge aus der Höhe abwarfen; und trafen sie den Schädel so kamen sie wohl erst bei den Fußsohlen wieder heraus, aber sie trafen eben nicht oft, und man hat sie bald wieder aufgegeben. […] Und weißt du, wie das war? Nicht wie eine schreckliche Ahnung, sondern wie ein noch nie erwartetes Glück. […] Es war ein dünner, singender, einfacher hoher Laut, wie wenn der Rand eines Glases zum Tönen gebracht wird; aber es war etwas Unwirkliches daran, das hast du noch nie gehört, sagte ich mir. Und dieser Laut war auf mich gerichtet.“ (Musil 1928, S. 555-556)

Und weiter

„Inzwischen war der Laut von oben körperlicher geworden, er schwoll an und drohte. […] Das erste, was ich wieder wahrnahm, war, daß mich alle ansahen. Ich stand am gleichen Fleck, mein Leib aber war wild zur Seite gerissen worden und hatte eine tiefe, halbkreisförmige Verbeugung ausgeführt.“ (Musil 1928, S. 556-557)

Kaum zu begreifen: Glück und Dankbarkeit sind die Folge dieses beinahe tödlichen Moments, oder in Azweis Worten: „Jedesmal, wenn ich mich daran erinnere, möchte ich etwas von dieser Art noch einmal deutlicher erleben!“ (Musil 1928, S. 557)

Dies dritte Erlebnis nun hat Azwei viele Jahre später. Seine Mutter, mit der er kaum mehr Kontakt gehabt hatte, ist gestorben, und Azwei kommt gerade noch zu recht, um sie zu beerdigen und auch seinen Vater noch beim Sterben zu begleiten. Und dann ist Azwei, ein bis dahin in jeder Hinsicht unternehmender Mann ohne jede Rückbesinnung, allein, zurückgekehrt in sein Kinderzimmer, in dem er seine eigenen Kinderbücher liest, und in einen seltsam versponnenen Zustand gerät. Und in diesem Zustand hat er sein drittes Erlebnis:

„Ich hatte mir auch ein Bett in dieses Zimmer gestellt und schlief dort. Und da kam dann die Amsel wieder. […] Es war vier Uhr morgens, der Tag kehrte in meine Augen ein, der Schlaf versank so rasch, wie die Spur einer Welle in trockenem Ufersand aufgesaugt wird, und da saß vor dem Licht, das wie ein zartes weißes Wolltuch war, ein schwarzer Vogel im offenen Fenster! Er saß dort, so wahr ich hier sitze.
Ich bin deine Amsel, - sagte er – kennst Du mich nicht? “ (Musil 1928, S. 561)

Und diese Begegnung versöhnt Azwei in gewisser Hinsicht mit sich selbst, oder, wie er es ausdrückt „ich bin nie im Leben ein so guter Mensch gewesen wie von dem Tag an, wo ich die Amsel besaß.“ (Musil 1928, S. 562)

Und schließlich endet die Erzählung mit folgendem kleinen Dialog der beiden Freunde:

„Aber du deutest doch an, - suchte Aeins sich vorsichtig zu vergewissern - daß dies alles einen Sinn gemeinsam hat?

Du lieber Himmel, - widersprach Azwei - es hat sich eben alles so ereignet; und wenn ich den Sinn wüßte, so brauchte ich dir wohl nicht erst zu erzählen. Aber es ist, wie wenn du flüstern hörst oder bloß rauschen, ohne das unterscheiden zu können!“ (Musil 1928, S. 562)

Diese letzten beiden Sätze sind in gewisser Hinsicht metapoetisch zu lesen: aus der Verwirrung seines Lebens weist Azwei die Amsel einen Ausweg: Sie macht all das Unsinnige, Unbegreifliche erzählbar. Sie macht es ihm möglich, eine (wenn auch "unsinnige") Einheit der Dinge zu denken. Dieser Sinn, den die Dinge nicht von sich aus haben, wird durch Erzählen hergestellt. Das Rauschen wird in Flüstern verwandelt - kein lautes, selbstbewusstes Über-die-Welt-Reden, eher ein Tasten, der Versuch, sich vor den heran drängenden Dingen zu retten, schwach, aber hilfreich.

Die Amsel ist dabei kein zufällig gegriffener roter Faden, der durch eine andere Richtschnur des Erzählens ersetzbar gewesen wäre. Bei der Bewegung aus dem Indistinkten in das Begrenzte, wohltuend Zergliederte weist nicht umsonst sie den Weg: ein sprechender Vogel. Das weiß auch Azwei gegen Ende der Erzählung, wenn er sagt: "... ich fühlte mich überaus glücklich, wenn der Vogel zu mir sprach."

Ein Dreischritt also: eine Vogelstimme zu ersten, ein singender, unheimliche Gestalt annehmender Ton zum zweiten, ein sprechender Vogel zum dritten. In dieser Weise lässt sich „Die Amsel“ als eine Bewegung vom Signal über die diskrete Information hin zum Verstehen lesen: aus dem amorphen Laut hin zu dem für Musil so zentralen 'anderen Zustand' „tagheller Mystik“, zum Glück des Verstehens.

3. Können Maschinen verstehen?

Von solchem Glück ist die Informationswissenschaft – zumindest soweit sie ihre Fundierung in der Informatik hat – weit entfernt. Hat doch die Informatik ihrerseits mit dem 'Verstehen' traditionell ihre Probleme und ist bis heute nicht einmal in der Lage gewesen, die vergleichsweise niedrige Hürde maschineller Intelligenz im Sinne einer Simulation von Denken überquerbar zu machen, die in dem so genannten Turing-Test definiert ist. Der amüsante Aufsatz von Hutchens (1996) mit dem Titel „How to pass the Turing Test by Cheating“ etwa belegt beispielreich, warum der für die Präsentation einer ersten im Sinne des Turing-Tests „intelligenten“ dialogfähigen Maschine ausgelobte und mit 100.000 Dollar dotierte Loebner-Preis so bald wohl nicht vergeben wird. Und Majumdar, Sowa und Stewart (2008) weisen in ihrer fundierten Kritik bisheriger Versuche des maschinenbasierten Sprachverstehens überzeugend darauf hin, wie weit Computerprogramme noch davon entfernt sind, 'Sprachspiele' im Sinne Wittgensteins zu beherrschen.

Es kommt hinzu, dass die Zunft der Informatiker schon mindestens zwei Traumata hinter sich hat, die beide in enger Verbindung mit dem Phänomen des Verstehens stehen und – dies meine zweite These – mit dem so genannten „Semantic Web“ ist die Informatik im Begriff, eine dritte Chance für eine endlich erfolgreiche Romanze oder wenigstens einen halbwegs substantiellen Flirt mit dem Verstehen zu vergeben.

3.1. Informatik und Verstehen I: Eliza & co.

Dabei steht im Zentrum des ersten dieser beiden Traumata – in gewisser Hinsicht ein niemals als solches anerkanntes Urtrauma der Zunft – der deutsch-amerikanische Informatiker Joseph Weizenbaum. Weizenbaum begann seine Laufbahn in den 60er Jahren als Erschaffer des Computerprogramms ELIZA, das durch die Erkennung einfacher semantischer Muster in Texten und daraus abgeleitete mittelmäßig trickreiche Fragetaktiken die Illusion einer dialogfähigen und mit Verstand begabten Instanz erwecken konnte. In einer DOCTOR benannten Variante simulierte ELIZA gar so erfolgreich den Part eines Gesprächsanalytikers, dass Psychologen auf den Gedanken verfielen, einen Teil von psychologischer Beratung auf diese Weise automatisieren zu können. Auch begannen Menschen, diesem digitalen „doctor“ mit einem dermaßen naiven Glauben an dessen Verstehenskapazität die intimsten Details ihres Lebens anzuvertrauen, dass Weizenbaum sehr schnell seiner technokratischen Unschuld verlustig ging!

So hatte Weizenbaum in einer ersten Publikation 1966 noch ELIZA und DOCTOR mit einer gewissen Portion Machbarkeitsoptimismus vorgestellt, um dann aber in einer zweiten Publikation im Jahr 1967 schon sehr viel nachdenklichere Töne anzuschlagen:

„There can be no total understanding and no absolutely reliable test of understanding. To know with certainty that a person understood what has been said to him is to perceive his entire belief structure and that is equivalent to sharing his entire life experience. It is precisely barriers of this kind that artists, especially poets, struggle against. This issue must be confronted if there is to be any agreement as to what machine "understanding" might mean.“ (Weizenbaum 1967, S. 476)

Diese Nachdenklichkeit wandelte sich bei Weizenbaum über die Jahre zu einem regelrechten Entsetzen angesichts der mehrheitlichen Weigerung seiner Kollegen, die von ihm aufgeworfenen Fragen – und darunter an erster Stelle die nach der Natur des 'Verstehens' - überhaupt nur zur Kenntnis zu nehmen. Weizenbaum verstand sich in der Folge als ein „Dissident“ der Informatik und ist mit Publikationen wie „Die Macht der Computer und die Ohnmacht der Vernunft“ (1976) bis zu seinem Tod das verkörperte Gewissen einer wissenschaftlichen Disziplin geblieben, die ihrerseits das hier angesprochene erste Trauma zumindest lange Zeit ganz überwiegend verdrängt hat.

3.2. Informatik und Verstehen II: Aufstieg und Fall der Expertensysteme

Ohne diese Verdrängungsleistung wäre wohl eine zweite Phase aggressiver Naivität beim Umgang der Informatik mit Begriffen wie „Denken“ und „Verstehen“ in den achziger Jahren des letzten Jahrhunderts nicht denkbar gewesen.

Diese hatte ihre Wurzeln in der Frühzeit der Forschung zur Künstlichen Intelligenz – kurz: KI -, die in den fünfziger Jahren in ihrer Spielart als 'starke' KI mutige Postulate aufstellte wie das Folgende:

"Every aspect of learning or any other feature of intelligence can be so precisely described that a machine can be made to simulate it." (McCarthy 1955)

Eine der Leitvorstellungen der 'starken' KI war, dass das menschliche Gehirn simulierbar sei. Vertreter dieser Gruppe wie Hans Moravec oder Ray Kurzweil behaupteten, es sei technisch machbar, das Gehirn 1:1 in Hard- und Software zu modellieren, und eine solche Simulation werde im wesentlichen mit dem Original identisch sein. Sie kombinierten damit die Vorstellung, dass eine hinreichend mächtige Maschine jeden beliebigen Prozess simulieren könne mit der positivistisch-materialistischen Annahme, das Denken sei das alleinige Resultat physischer Hirnprozesse.

Die 'starke' KI erlebte eine frühe Goldgräberphase und in den siebziger Jahren anschließend einen ausgeprägten Katzenjammer insbesondere nach dem Zusamenbruch der US-amerikanischen Förderung aufgrund desaströser Forschungsergebnisse bei der maschinellen Übersetzung und nach dem völligen Zurückfahren der großbritannischen Förderung nach Erscheinen des sog. 'Lighthill Report', der eine weitgehende Ineffizienz der KI-Forschung festgestellt hatte.

Dennoch etablierte sich in den späten siebziger und in den frühen achtziger Jahren eine als 'schwache' KI etikettierte Forschungsrichtung, als deren Resultat so genannte „Expertensysteme“ populär wurden. Diese wurden mit dem Anspruch vermarktet, das Wissen von Experten in klar umrissenen Kenntnisdomänen ersetzen zu können und darüber hinaus 'selbstlernend' zu sein, in gewissen Grenzen also die eigene Wissensbasis selbständig erweitern zu können. Diese Expertensysteme wuchsen sich zu einem eigenen Industriezweig aus und waren Mitte der achziger Jahre ein veritabler wirtschaftlicher Erfolg: es entstand eine milliardenschwere Industrie um die Programmiersprache LISP, in der die meisten dieser Expertensysteme realisiert waren, bis hin zu speziell auf die LISP-Verarbeitung hin optimierter Hardware, den sog. LISP-Machines.

Grundsätzlich sollten die Expertensysteme in der Lage sein, zumindest in einer klar abgegrenzten Domäne Information zu verstehen und in gewissen Grenzen auch die eigene Verstehensbasis selbst zu erweitern. Doch bald stellte sich heraus, dass es mit den Lernfähigkeiten nicht weit her war, dass Expertensysteme bei unerwartetem Input teilweise groteske Fehler produzierten, und dass sie außerdem in der Systempflege enormen Aufwand nach sich zogen. Nachdem dann auch noch eine neue Generation von generischen Personal Computern zu weitaus geringeren Kosten die hochgezüchteten und teuren LISP-Maschinen zu überflügeln begannen, brach dieser Milliardenmarkt fast über Nacht in sich zusammen. Es begann in der Folge, was oft in Analogie zum nach einer Kernexplosion prognostizierten radioaktiven Winter als der 'KI-Winter' bezeichnet wurde: für mehr als zehn Jahre war die KI danach zumindest förderpolitisch mausetot!

In gewisser Hinsicht hatte die Art und Weise, wie sich manche Vertreter der starken wie auch der schwachen KI in der Öffentlichkeit gerierten und wie sie ob ihrer letztlich nicht einlösbaren Versprechungen von weiten Teilen der Politik hofiert wurden, gewisse Ähnlichkeiten mit Verhalten und Stellung mancher mittelalterlicher Alchemisten an den damaligen Adelshöfen. Man verstand auch diese nicht wirklich, aber die unglaubliche Attraktivität ihrer Versprechungen – damals Gold, heute die Reproduzierbarkeit menschlicher Intelligenz (mit der impliziten Folge übrigens ihrer letztlichen Substituierbarkeit!) - machte blind für die Lücken, Defizite und Ungereimtheiten ihres Diskurses. Und wie schon der Bankrott der Alchemisten dazu führte, das auch ihre begründeteren Träume und Visionen gründlich entwertet und verbrannt waren, so führte auch die Einsicht in die Nicht-Einlösbarkeit so mancher Versprechungen der KI eben in der Folge auch dazu, dass das Nachdenken über das 'Verstehen' in der Informatik wieder weitgehend zum Erliegen kam: ein Stück weit war das Thema zumindest in weiten Teilen der des Faches damit verbrannt und ungeliebt.

Eine weitere Chance für die Informatik, sich dem Begriff des Verstehens grundlegender zu nähern, war damit vertan.

3.3. Informatik und Verstehen III: Semantic Web oder Syntactic Web?

Doch mit der momentanen Konjunktur des Attributs „semantisch“ in weiten Teilen der Informationstechnik und dabei insbesondere im Kontext des rapide Gestalt annehmenden 'Semantic Web' stellt sich die Frage nach dem maschinellen Verstehen erneut und diesmal sehr praktisch: es ist nun zu fragen, inwieweit das Attribut 'semantisch' im Verwendungskontext des 'Semantic Web' denn nun ernsthaft mit 'Bedeutung' und 'Verstehen' in Verbindung zu bringen ist, wie es ein naiver Betrachter wohl reflexhaft zu tun versucht sein dürfte.

Und in der Tat ist auch hier eine gewisse Skepsis angebracht. Ist doch das Semantic Web in seiner gegenwärtigen Ausprägung vor allem der Versuch, Informationsinstanzen im Netz und diese zum World Wide Web verbindende Graphen in einer Weise modellierbar zu machen und mit formalisiert-differenzierten Attributen zu versehen, die letztlich diese Informationsinstanzen durch Maschinen nach Regeln prozessierbar machen. Und diese Regeln müssen in logikbasierten Sprachen formulierbar sein, um für Maschinen ausführbar zu sein.

Der Erfinder des Semantic Web, Tim Berners-Lee, fasst dies folgendermaßen:

„The computer doesn’t truly „understand“ any of this information, but it can manipulate the terms much more effectively in ways that are useful and meaningful to the human user“ (Berners-Lee 2001).

Und in diesem Sinne konstatiert Veltman (2004) bezogen auf die gegenwärtige Situation zu Recht:

„Aspirations for a semantic web in a deeper sense have failed because of the limitations of logic and machines. We would need to conclude that a semantic web which deals only tangentially with meaning might more accurately be called the transactions web [...] or the logic web.“

Und doch zielt Veltmans Kritik in gewisser Hinsicht ins Leere, denn genau diesen Ehrgeiz ein semantisches Netz im eigentlichen Wortsinn zu schaffen hatte das von Berners-Lee propagierte Vorhaben des 'Semantic Web' nie: es handelt sich auch von seiner Programmatik her eben wirklich nur um einen transaktions- oder logikzentriertes Ansatz, für den wahrscheinlich die Bezeichnung „Syntactic Web“ angemessener gewesen wäre. Allerdings dürfte dieser terminologische Sündenfall wohl kaum mehr zu heilen sein: angesichts der stetig wachsenden medialen Präsenz des 'Semantic Web' bzw. seiner Populärvariante Web 3.0 ist der Weg zu einem Modell, das dem impliziten Anspruch dieses Begriffes eher angemessenen ist, momentan kaum gangbar, jedenfalls nicht unter dem rubrum „Semantic Web“.

Dies also sind zusammengefasst die drei gescheiterten Flirts der Informationstechnologie mit dem 'Verstehen': die platte Simulation des Verstehens in ELIZA und seiner Abkömmlinge bis zu den heutigen Chatbots, die totale Mechanisierung des Verstehens in den Allmachtsphantasien der KI und die Annexion des Attributs 'semantisch' durch die 'Community' des Semantic Web.

4. Plädoyer für ein hermeneutisches Web

Und dennoch wäre es grundfalsch, das Projekt ernsthaft verstehensähnlicher Operationen in netzbasierten digitalen Umgebungen nun einfach aufzugeben. Dies allein schon, weil wir - wie ich eingangs darzulegen versucht habe – in Zukunft Techniken benötigen werden, die uns in die Lage versetzen, große Mengen digitaler Informationsobjekte zu verstehen ohne diese im traditionellen Sinne lesen zu können. Aber auch – und vor allem! - weil auf diese Weise ganz neuartige und möglicherweise erstaunlich fruchtbare methodische Ansätze vor allem in den hermeneutisch basierten Wissenschaftsdisziplinen entstehen könnten, über die ich an anderer Stelle publiziert habe (Gradmann 2007, Gradmann/Meister 2008).

Und damit zurück zu Veltman: seine Fundamentalkritik des 'Semantic Web' richtet sich zwar zwar gegen einen Anspruch, den dessen Initiatoren zumindest nie explizit erhoben haben – zugleich benennt aber seine Kritik des dem Semantic Web zugrunde liegenden Bedeutungsmodells einige der elementaren Bedingungen, die als Voraussetzungen für verstehensähnliche Szenarien im WWW zu schaffen wären.

Erforderlich ist dabei allererst eine Überwindung des in der WWW-community weit verbreiteten eindimensionalen ontologischen Weltmodells, dass in bester aristotelischer Tradition allein dem Substanzaspekt verpflichtet ist und keine gleitenden Übergänge zwischen Substanz und Funktion kennt, so dass es in der Folge auch völlig statisch bleibt und keine Evolution von Bedeutung erlaubt.

Zugleich ignoriert der Ontologiebegriff des Semantic Web alle Unterscheidungen hinsichtlich der Seinsweise von Wissen - ostensiv, nominal oder real – wie sie in der Lehre von der Wissensorganisation im vergangenen Jahrhundert herausgearbeitet worden sind.
Auch blendet diese Sichtweise konsequent die Möglichkeit unterschiedlicher Ebenen von Sprachgebrauch aus und ignoriert dabei insbesondere die Unterscheidung zwischen Terminologie und Alltagssprache.

Schließlich reduziert der Ansatz des Semantic Web alle denkbaren Relationen auf formal-logische Beziehungen. Diese aber – wie der von den Apologeten dieses Bedeutungsmodells gern zitierte John Sowa selbst zugesteht – stellen für die Modellierung sprachlicher Tatbestände und deren Interpretation wahrscheinlich nicht das am besten geeignete Instrument dar.

Unter all diesen von Veltman benannten Mängeln schlummert aber wohl letztlich ein Elementardefizit hinsichtlich der zeichentheoretischen Grundlagen ihrer Bedeutungsmodelle, welches große Bereiche der Informatik betrifft. Ohne eine differenzierte semiologische Fundierung muss jeder Versuch, 'Bedeutung' und 'Verstehen' jenseits primitiver denotativer Bedeutungsbeziehungen zu modellieren Stückwerk bleiben – zumal, wenn er denn die erforderlichen diachronen Bezüge einschließen soll!

Dies also ist meine dritte These:

Erforderlich ist die Beseitigung der oben angesprochenen Defizite des Semantic Web auf Grundlage einer adäquaten semiologischen Theorie digitaler, netzbasierter Bezeichnungs- und Bedeutungsmodi.

Auf diese Weise wäre die Ausgangsbasis hergestellt für die von Benel (2001) geforderte hermeneutisch basierte Fassung des Ontologiebegriffs im Semantic Web. Diese wiederum wäre das Fundament eines multilingualen und multikulturellen WWW, in dem wir dem maschinell basierten Verstehen in einem für weite Teile der Geisteswissenschaften konstitutiven Sinne erheblich näher kommen könnten.

Eine solche hermeneutische Fundierung würde die von Capurro (2006) angesprochene „Gegenbewegung vom Abstrakten hin zum Guten als dem Menschenmöglichen“ vollziehen. Sie stellt damit – wieder mit den Worten Capurros - „eine ethische Herausforderung bei der Schaffung des „semantic web“ dar.“ (Capurro 2006)

In einem solchen wahrhaft semantischen Netz könnten die folgenden Sätze Weizsäckers als Richtschnur dienen:

„Daß es Sprache als Information gibt, darf niemand vergessen, der u¨ber Sprache redet. Daß Sprache als Information uns nur möglich ist auf dem Hintergrund einer Sprache, die nicht in eindeutige Information verwandelt ist, darf niemand vergessen, der über Information redet.“ (Weizsäcker 1974, S. 60)

Und ein solcher Ansatz würde die Wissensarchitektur des WWW dann auch letztlich auf dem Vektor positionierbar machen, der durch den Dreischritt Signal – Information – Zeichen markiert ist.

Vom Glück des Verstehens, wie in Musils Amsel evoziert, wären wir damit immer noch ein gutes Stück weit entfernt – aber zumindest näher gekommen wären wir ihm, vielleicht so nahe es unter den Bedingungen digital basierter Wissenschaft eben vorstellbar ist.

Ein solches Großprojekt – dies sollte zugleich deutlich sein – kann nicht allein Sache der Informatik sein, so wenig es andererseits als rein geisteswissenschaftlich fundiertes Unterfangen ohne Beteiligung der Informatik gelingen kann. In einer solchen Konstellation, so meine letzte These, kann die Informationswissenschaft eine wichtige und möglicherweise sogar entscheidende Rolle als Mittler und/oder Integrator spielen.

Ich bin daher sehr froh, dass unser Institut eine wichtige Rolle inne hat bei Konzeption und Aufbau der Semantikschicht in der nun entstehenden Europäischen Digitalen Bibliothek, der Europeana! Dort realisieren wir eine digitale Bibliothek neuen Typus, in der digitalisierte und genuin digitale Kultur- und Informationsobjekte primär über semantisch basierte Zugriffswege zugänglich werden. Ich begreife unsere Rolle in diesem Großprojekt nicht zuletzt als Chance der wissenschaftlichen und institutionellen Positionierung für unser Institut und unsere Universität.

Ganz zum Schluss noch einmal zurück zu Josef Weizenbaum, der in diesem Jahr hier in Berlin gestorben ist, und dem ich diese Vorlesung widmen möchte. In einer seiner allerletzten Publikationen vor seinem Tod schrieb er:

„Würde die weltweite Gesellschaft nur vernünftig sein, könnte das bis heute erreichte Wissen der Menschheit aus dieser Erde ein Paradies machen. In der Tat ist sie kein Paradies, sondern ein Irrenhaus - doch nicht, weil wir etwa nicht genug wissen.“ (Weizenbaum 2008)

– und ich möchte diesen Gedanken zu Ende führen mit den Worten: sondern weil wir nicht genug verstehen!

Ich danke für Ihre Geduld und Aufmerksamkeit.

Literatur

Benel, Aurélien et al. (2001). Truth in the digital library: from ontological to hermeneutical systems. In: Proceedings of the fifth European conference on research and advanced technology for digital libraries (Lecture notes in computer science), vol 2163. Heidelberg, S. 366-377.

Berners-Lee, Tim; Hendler, James; & Lassila, Ora (2001). The Semantic Web: a new form of Web content that is meaningful to computers will unleash a revolution of new possibilities. In: Scientific American, 284(5), S. 34-43.

Capurro, Rafael (2006). Hermeneutik revisited. In: Pellegrini, Tassilo; Blumauer, Andreas (Hrsg.): Semantic Web. Wege zur vernetzten Wissensgesellschaft. Berlin: Springer. S. 527-533.

Crane, Gregory (2006). What Do you Do with a Million Books? In: D-Lib Magazine, Vol. 12, March. URL: http://www.dlib.org/dlib/march06/crane/03crane.html

Franz, Michael et. al. (Hrsg) (2007). Electric Laokoon. Zeichen und Medien, von der Lochkarte zur Grammatologie. Berlin: Akademie.

Gradmann, Stefan (2008). Some thoughts on the importance of open source and open access for emerging digital scholarship. In: Proceedings of the Wittgenstein Symposium Kirchberg, 05.08.-11.08.2007. S. 275-286.

Gradmann, Stefan; Meister, Jan-Christoph (2008). Digital document and interpretation: re-thinking ‘‘text’’ and scholarship in electronic settings. In: Poiesis & Praxis 2008 (5), S. 139-153. URL: http://www.springerlink.com/content/g370807768tx2027/fulltext.pdf

Majumdar, Arun; Sowa, John; Stewart, John (2008). Pursuing the Goal of Language Understanding. In: Eklung, Peter; Haemmerlé, Ollivier (Hrsg.): Conceptual Structures: Knowledge Visualisation and Reasoning (ICCS 2008/LNAI 5113). S. 21-42.

McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence. URL: http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html

Musil, Robert (1928): Die Amsel. In: ders.: Gesammelte Werke, Bd. 7. Kleine Prosa, Aphorismen, Autobiographisches.

Veltman, Kim (2004). Towards a Semantic Web for Culture. Journal of Digital Information , Vol. 4, No. 4. URL: http://jodi.tamu.edu/Articles/v04/i04/Veltman/.

Weizenbaum, Joseph (1976). Die Macht der Computer und die Ohnmacht der Vernunft. Frankfurt: Suhrkamp.

Weizenbaum, Joseph (2008). Grenzen des Wissens. Wir gegen die Gier. In: Süddeutsche Zeitung 08.01.2008

Weizsäcker, Carl Friedrich (1974): Die Einheit der Natur. München: dtv.


Fußnoten

[Fn 1] Ähnlich Franz (2007), S. 28 ff. (zurück