Nach zahlreichen Büchern wie „Was ist Wahrheit?“, „Was ist Erkenntnis?“, „Die Protophysik der Zeit“, „Das Maß der Dinge. Protophysik von Raum, Zeit und Materie“ u. v. m. erscheint hier ein weiteres gut und auch leicht lesbares Werk des Autors. Das bedeutet aber keinesfalls, dass sich das Büchlein rasch und problemlos konsumieren lässt. Denn dahinter steht ein Denker (Jg. 1942) der „Protophysik“, den Wikipedia als Philosophen der Universität Marburg und Vertreter des „Methodischen Kulturalismus als Weiterentwicklung des [...] Erlanger Konstruktivismus“ ausweist. Damit lässt sich die Betrachtungsweise des Begriffs „Information“ für den Eingeweihten leicht abschätzen und für alle anderen aus dem Zusatztitel „Kritik einer Legende“ schon ahnen.
Wenn man also erwartet, dass dieses Buch die Frage des Titels, “Was ist Information?“, beantwortet, so wird man insofern enttäuscht, da die Quintessenz vielmehr darin zu finden ist, dass viele Aussagen darüber, was Information sei, eben in den Bereich des Legendären und Ikonenhaften gehört. Der Autor bezieht sich hierbei sowohl auf die Information in der Alltagssprache als auch auf die „Pfade des Irrtums“ in den Naturwissenschaften. Sicher gibt es bezüglich des Begriffs „Information“ viel Abwegiges und Pseudowissenschaftliches in dieser Welt, was es zu kritisieren gilt, denn das ist bei einem Begriff, der das letzte Jahrhundert so stark geprägt hat wie kein anderer, auch kaum anders zu erwarten.
Die Informationstheorie von Claude Elwood Shannon, Warren Weaver, Ludwig Boltzmann, Ralph Hartley, Harry Nyquist, Ronald Fisher, Norbert Wiener, Erwin Schrödinger u. a. hat die Computer, die Nachrichtentechnik, die Erbinformation der Lebewesen, die allgemeine Digitalisierung u. v. m. erst verständlich gemacht. Hinzu kommt, dass diese Theorie keine leichte geistige Kost ist. Schon die einfache Frage: „Hat Information eine Bedeutung?“ ist sozusagen der Lackmustest, ob jemand diese Theorie verstanden hat oder nicht, da die meisten Menschen spontan mit „ja, selbstverständlich“ antworten. Nur jene, die den Satz von Weaver, „information must not be confused with meaning“ begriffen haben, wissen, dass erst die Informationstheorie die Konfusion von Information und Interpretation aufdeckte.
Insofern ist es sehr erfreulich, dass Peter Janich auf den höchst wichtigen Zusammenhang von Information und Semiotik im Sinne von Charles Morris hinweist. Wobei allerdings die Trennungslinie zwischen Information und Semiotik und damit die Tatsache, dass die Informationstheorie eine unverzichtbare Basis zum Verständnis der Semiotik wurde, nicht deutlich wird. Darin liegt auch der Grund, dass „Morris bei Shannon und Weaver nirgends erwähnt“ wird, wie Janich auf S. 40 bemerkt. Diese beiden Autoren bauten ja nicht auf Morris auf, sondern schufen vielmehr eine neue Grundlage für die Semiotik. Janich hat aber völlig recht, dass die „Beziehung von Morris und Weaver“ „bisher in der Literatur nicht bemerkt worden zu sein“ scheint, auch wenn der Rezensent dieser Zeilen selbst wiederholt darauf hingewiesen hat, dass die Unterscheidung von Charles Morris, semantics sind die "relations of signs to the objects to which the signs are applicable" und pragmatics die "relation of signs to interpreters"[Fn1], eine deutliche Korrespondenz zu Shannon und Weaver zeigt, weil sich Semantik vorwiegend auf der Senderseite und Pragmatik auf der Empfängerseite (dem Interpreten einer empfangenen Nachricht) abspielt. Das Modewort Semantik macht deutlich, dass in weiten Bereichen nur wenig bekannt ist, dass diese, ohne die Pragmatik, gar keinen Sinn hat.
Um die Ausführungen Janichs zu verstehen, muss man erkennen, welche Bedeutung Worte wie Sprache, Information und Kommunikation bei ihm haben, denn für Janich ist Sprache nicht, wie man erwarten sollte, der Oberbegriff von Körpersprache, menschlicher Sprache, Sprache der Bienen, Sprache der Delphine, Sprache der Urmenschen oder Zeichensprache, sondern das Synonym für menschliche Sprache. Das ist durchaus legitim, da menschliche Sprache sich signifikant von allen anderen durch den Bedeutungsgrad der Worte und durch das dahinter stehende menschliche Bewusstsein unterscheidet. In diese Denkstruktur Janichs passt dann auch die zwangsläufig folgende Vorstellung, das Information und Redundanz in einer solchen Sprache immer bedeutungstragend sein muss. Das erfordert aber dann einen anderen aussagekräftigen Oberbegriff für die syntaktische Kommunikation.
Unabhängig davon muss man auch erkennen, dass Zeichen von Computern verarbeitet werden können, ohne dass es bereits um Semiotik geht, und das ist die tiefgreifende Erkenntnis, die sich aus der Informationstheorie ergab. Syntaktisch strukturierte Nachrichten können auch außerhalb menschlicher Kommunikation erzeugt übertagen und empfangen werden. Ob wir das Sprache nennen, Kommunikation, Nachrichten-, Zeichen- oder Informationsübertagung, ist nicht ganz gleichgültig, da Worte ihre Bedeutung möglichst leicht erkennbar machen sollten. Entscheidend ist aber die möglichst eindeutige Abgrenzung dieser Begrifflichkeit und damit deren Definition.
Insofern lässt sich Janich gar nicht erst auf diese Informationstheorie ein, wenn er sie zur Legende erklärt. In dem von ihm kritisierten Verständnis, Information als „Bedeutung und Geltung für jeden, der sie sucht oder gibt.“ (S. 19), diskutiert er grundsätzlich nur bedeutungstragende Information auf der Ebene der Semiotik von Morris. Auch dies ist selbstverständlich legitim, zumal neben Janich viele andere, und nicht nur Philosophen, mit dem sehr scharf begrenzten Informationsbegriff der Informationstheorie große Schwierigkeiten haben. Wenn man aber die Benennung „Information“ aus dieser Theorie zu verbannen versucht, muss man eine bessere Namensgebung anbieten können, und das fehlt.
Janichs Kritik fokussiert auf das, was er „die Information als Naturgegenstand“ oder als „Gegenstand der Naturwissenschaften“ (S. 13) bezeichnet, von der er richtigerweise wiederholt feststellt, dass sie sozusagen die Bedingungen der Semiotik nicht erfüllt. Über diese Theorie im eigentlichen Sinne erfährt man daher in dieser Publikation wenig Erhellendes, weil sich der Autor mehr auf sein eigenes Metier, die Probleme der menschlichen Sprache aus philosophischer Sicht, konzentriert.
Die Informationstheorie im Eta-Theorem[Fn2] Boltzmanns lieferte zweifelsfrei tiefgreifende Erkenntnisse über die Messbarkeit von Ordnung. Auch die Entdeckung, dass Information und Wissen grundsätzlich Fragen der bedingten Wahrscheinlichkeit sind, und es somit weder bei Informationen noch beim Wissen eine absolute Sicherheit geben kann, hat das Denken vieler Menschen hinsichtlich des Laplaceschen Dämons und des Determinismus im letzten Jahrhundert stark revolutioniert. Die Erkenntnis Shannons, dass Entropie in Form von Information und Redundanz weitaus mehr mit Syntax, Ordnung und Geisteswissenschaft zu tun hat, als mit Physik, Energie oder Materie (Wiener), hat zahlreiche Geistes- und Sozialwissenschaftler provoziert, etwas über die Frage der Emergenzen (Konrad Lorenz.), die zwei Kulturen von Charles Percy Snow und vieles andere auf den 181 Seiten sehr schön nachzulesen ist.
Zweifellos hat die „Mathematical Theory of Communication“ den Begriff Information aus dem unscharfen Kontext menschlicher Alltagssprache und auch aus ihrem historischen Sprachwandel heraus in eine sehr präzise und wissenschaftlich begründete Festlegung überführt. Gerade dadurch wird sie überhaupt erst angreifbar, weil undefinierte Begriffe wie Kommunikation, unter der einige die Unterhaltung von zwei oder mehreren Menschen verstehen, andere kommunizierende Röhren, wieder andere die Interaktion von Tieren oder Pflanzen etc., fast nicht falsifizierbar sind. Dagegen definiert die Informationstheorie eindeutig den Fluss einer Nachricht vom Sender über einen Kanal zum Empfänger schon als Kommunikation, da die Rückkopplung vom Empfänger zum Sender einerseits nur die Umkehrung dieser Kommunikation ist, andererseits aber eine Vielzahl völlig neuer Probleme aufwirft, die damit bereits in den Bereich der Kybernetik gehören. Insofern ist natürlich die Informationstheorie auch die unverzichtbare Basis der Kybernetik. Wenn man nun noch das Problem der Semiotik hinzunimmt, bei dem es nicht nur um den rückgekoppelten Austausch von Nachrichten, sondern auch noch um die begriffliche Bedeutung dieser im menschlichen Verständnis geht, dann braucht man darüber hinaus noch die Komplexität neuronaler Netze, in denen wir innere Modelle unserer Umwelt schaffen. Auf einfachster Ebene betrachtet sind für die Erzeugung von Wortbedeutungen semiotische Thesauri notwendig, die festlegen, welches Wort in welchem Kontext welche Bedeutung trägt – welche Komplexität dahinter steht, wird heute, bei den Bemühungen der Informatiker um die ontologies immer deutlicher.
Dass ein so einfacher Informationsbegriff, wie er in der Informationstheorie definiert ist, all die Menschen stört, die diesen Begriff weiterhin dort anwenden möchten, wo sie es gewohnt sind, ist selbstverständlich. Es ist aber hier ebenso wenig zulässig, wie in allen anderen Bereichen der Wissenschaft, Begriffe definitorisch aus Gewohnheit unscharf zu lassen. So sind Philosophen nicht selten über den gedankenlosen Umgang mit Worten verärgert, und das ist auch der eigentliche Gegenstand der Betrachtung dieses Büchleins, die Bemühung um die Eindämmung sprachlichen Wildwuchses. „Hier geht es [...] um Aufklärung im Sinne einer Kritik an falschen Philosophien“, heißt es auf S. 178. Der Autor beklagt, wie viele andere auch, den starken Gebrauch von Metaphern in den heutigen Wissenschaften, wenn beispielsweise Moleküle eine „Schlüssel-Schloß-Funktion“ (S. 94) haben oder vom „Alphabet des entschlüsselten Erbguts“ (S. 95) die Rede ist. Diese bildhafte Darstellung ist in der (Sprache der) Wissenschaft modern geworden, weil sie im Wettbewerb um die Geldgeber immer stärker gezwungen ist, diese allgemein verständlich dort abzuholen, wo sie geistig stehen, was nicht selten auf Kosten der Wissenschaftlichkeit geht. Darum bedient sich aber auch gerade dieses Büchlein selbst sehr stark einer allgemeinen Verständlichkeit, indem es beispielsweise das Bild vom Hotel mit dem perfekt funktionierenden Schließsystem (S. 93) betrachtet, das zeigen soll: „Schlüssel irren sich nie, und »erkennen« deshalb keine Schlösser – wie Moleküle.“
Für Janich ist die Kommunikation von Molekülen zwangsläufig eine Metapher, und dazu noch eine abwegige, weil es für ihn keine sprachliche Kommunikation außerhalb der Menschheit gibt; und das ist klar, Moleküle können nicht wie Menschen kommunizieren. Wenn man aber menschliche Sprache als Unterbegriff von Sprache versteht, was sie sprachlich zweifellos ist, dann sind diese Sprachformen keine Metaphern der menschlichen Sprache mehr, sondern nur Varianten der Gemeinsamkeit dessen, was man Sprache nennt.
Gerade Janich kritisiert ja weniger die Alltagssprache
der Laien, als vielmehr die der Naturwissenschaftler, denen er nachzuweisen
versucht, dass sie sich auf Irrwegen befinden. In dieser Fachsprache
geht es aber über die Bedeutung von Worten, wie sie sich aus
dem Konstruktivismus heraus ergeben, hinaus, zusätzlich um
die fundierte Begründung einer bestimmten Wortwahl. Missverständnisse
liegen nicht selten auch darin, dass unsere menschliche Sprache
durch das von George Kingsley Zipf erkannte „principle
of least effort“ zum radikalen Reduktionismus gezwungen
ist. Denn die komplexen neuronalen Vorstellungen und Begrifflichkeiten,
die unser Gehirn von dieser Welt zu erzeugen vermag, in einfache
Worte und deren syntaktische Satzkonstruktionen zu fassen, bedeutet
zwangsläufig Reduktionismus und Metaphernbildung – und
von dieser interessanten Frage handelt dieses Büchlein eigentlich.
Fußnoten
[Fn 1] Morris, C.W. (1938): Foundations of the theory of signs. Chicago: University of Chicago Press (zurück)
[Fn 2] „H-Funktion“ bei Janich S. 60, da H für das griech. Eta der Entropie steht (zurück)
Walther Umstätter ist emeritierter Hochschullehrer am und ehemaliger geschäftsführender Direktor des Instituts für Bibliotheks- und Informationswissenschaft.