Download PDF @ edoc HU Berlin
urn:nbn:de:kobv:11-10096965

Postmoderne Wissensorganisation oder: Wie subversiv ist Wikipedia?


Zitiervorschlag
Dina Brandt, "Postmoderne Wissensorganisation oder: Wie subversiv ist Wikipedia?". LIBREAS. Library Ideas, 14 ().


Ich habe keinen Eintrag bei Wikipedia.
D’rum frag ich mich manchmal, bin ich wirklich da?
Bin ich wirklich existent oder bilde ich’s mir nur ein?
Denn wäre es so, dann müsst der Eintrag doch da sein.[Fn1]

1. „Wissensgesellschaft“

Die Soziologen Peter Berger und Thomas Luckmann haben 1966 mit ihren Klassiker „The Social Construction of Society“ die Grundlagen für die poststrukturalistische Wissenssoziologie gelegt: Ihrer Auffassung nach benennen und systematisieren Gesellschaften ihr Wissen, um sich eine Wirklichkeitsordnung zu geben, die ihr eigenes Selbstverständnis und ihre Interaktionen untereinander regelt.[Fn2] Wissen entsteht durch „zeitlich und kulturell bedingte[] soziale[] Interaktionsprozesse[], die auf Grundlage von gemeinsamer Sprache, Symbolen, aber auch Normen und Werten zustande kommen. Die Wahrheit und Richtigkeit von Wissen ist demnach immer nur im Rahmen eines lokalen, interaktional konstruierten Kontextes gegeben.“ [Fn3] Wirklichkeit entsteht also, indem im gesellschaftlichen Diskurs Wahres und Falsches, Gewusstes und nur Geahntes voneinander geschieden werden.

Mit der Ausdifferenzierung der Gesellschaft werden die Wissensbestände immer größer und komplexer. Aus diesem Grund, so Berger/Luckmann, entwickelt sich ein Expertenwesen, das anerkannten „Wissensspezialisten“ eine spezielle Deutungshoheit zugesteht: Spezialisten, die qua Funktion garantierten, dass das Gesagte wahr ist und es für alle gleichermaßen gültiges Wissen darstellt.[Fn4] Spätestens mit der Aufklärung und der zunehmenden Verwissenschaftlichung der Gelehrtenwelt wurden so die Grundlagen für ein bis heute gültiges Expertenwesen geschaffen: Akademische Regeln, institutionalisierte Lehrstätten und streng geregelte Verfahren scheinen seit Jahrhunderten die gesicherte Produktion von Wissen zu gewährleisten.[Fn5] Die Enzyklopädie stellt einen Kristallisationspunkt einer solchen Wissensordnung dar: sie bildet das Wissen der Zeit durch wohl strukturierte Schlagwörter ab, ausgewählt von einem Fachgremium, geschrieben von anerkannten Experten der Zunft.[Fn6] Sie wird durch den Glauben an den Spezialisten zum Referenzmedium.

Während die frühneuzeitlichen Enzyklopädisten noch der Meinung waren, man könnte das gesamte Wissen der Welt zwischen zwei Buchdeckel stecken, wurden im Laufe der Jahrhunderte die Menschen immer skeptischer gegenüber solchen Totalitätsansprüchen.[Fn7]

Je mehr man von der Welt über empirische Forschungen, Reisen in fremde Länder und Begegnungen mit fremden Kulturen erfuhr, desto deutlicher wurde die Beschränktheit des eigenen Wissens. Der Übergang von einer eher anschaulichen Darstellung (die Welt als Theater, Baum des Wissens) zu einer rein alphabetischen Sicht auf die Welt war ein erster Schritt der Kapitulation vor den Dingen.

Heutzutage wird Deutschland oft als „Wissensgesellschaft“ bezeichnet. Wissen stelle in der postmodernen Zeit neben Arbeit und Kapital die entscheidenden Quelle für Wertschöpfung dar.[Fn8] Ausbildung und Zugang zu Wissen bestimmen darüber, welchen Anteil jemand am Wohlstand einer Gesellschaft hat. Wie wird in einer solchen Gesellschaft darüber befunden, was zum Wissensbestand gehört und was nicht? Mit dem neuen Medium Internet fiel zumindest die Beschränkung auf ein System, bei dem ein Schlagwort auf das nächste folgt. Auch wenn der Leser nach wie vor nur linear lesen kann, ist die Verknüpfung über Hyperlinks eine multidimensionale bzw. „assoziative“ . [Fn9] Dieses Verfahren etablierte sich schon in Form von Querverweisen in den gedruckten Enzyklopädien. Dank der Hyperstruktur von Internettexten können jetzt jedoch Zusammenhänge beliebig komplex dargestellt werden. So entwickelt sich ein semantisches Netz, das auch automatisch gespannt werden und demnach prinzipiell aus sich selbst neues Wissen generieren kann.[Fn10] Zugleich ist das Internet auch der schwerste Test für enzyklopädische Vorhaben: Information wie Desinformation, Fakten wie Gerüchte, Wahrheit und Lüge erscheinen dort ungefiltert nebeneinander. Über den Wahrheitsgehalt des Gefundenen zu entscheiden bleibt dem Leser überlassen. Dennoch funktionieren auch im Internet die herkömmlichen Regeln der institutionellen Wissensvermittlung. Es gibt etablierte Webseiten, die qua Herkunft solide Informationen garantieren. Suchmaschinen orientieren sich an einem Qualitätsmerkmal, das in der Wissenschaft bereits bekannt ist. Wird der Wert eines wissenschaftlichen Artikels schon lange an seinem „Impact Faktor“, also der Anzahl der Zitationen des Artikels in Fachpublikationen, gemessen, entwickelte Google ein ähnliches Referenzsystem für das Internet. Neben der Häufigkeit des Vorkommens eines gesuchten Schlagworts ist nun auch die Anzahl der Verweise (also Zitationen) ausschlaggebend für die Reihenfolge der Auflistung von gefundenen Seiten. [Fn11]

Doch auch wenn im Internet gewisse bekannte Autoritätsstrukturen weiter bestehen, birgt das Medium das Potential zu einer größeren Demokratisierung der Wissensvermittlung. War es seit der Erfindung des Buchdrucks vor allem die Aufgabe von Verlegern und Herausgebern darüber zu befinden, was es der Welt Wissenswertes mitzuteilen gibt, kann nun jeder Einzelne sein Wissens selbst und ohne großen Aufwand veröffentlichen. Das Ergebnis scheint Unordnung zu sein

Theo Stammen und Wolfgang Weber konstatieren ein grundlegendes Bedürfnis jeder komplexen Gesellschaft, „[s]ich über das Ausmaß – die Spannweite, die Gesamtheit – und die innere Ordnung des jeweils Gewußten zu vergewissern“. [Fn12] Wenn die Wissensorganisation einer Gesellschaft nicht mehr ausreiche oder „neu hinzukommendes Wissen bzw. innerlich und äußerlich verursachte Unsicherheiten der Wissensordnung“ zu bemerken seien, komme es zu Widersprüchen im Wissenssystem, die aufgelöst werden müssen. Betrachtet man die heftigen und über alle Medien hinweg geführte Diskussion um die Online-Enzyklopädie Wikipedia, dann scheint es so, als ob durch das neue Medium auch die postmoderne Wissensgesellschaft an den Punkt gekommen ist, seine Bestände neu zu organisieren. Wie dieser Versuch aussieht und ob er Hoffnung auf Erfolg hat, soll im Folgenden näher betrachtet werden. Zunächst wird die Enzyklopädie mit der dort praktizierten kollektiven Wissensorganisation beschrieben. Dahinter steht das Ziel, Autoritätsstrukturen aufzuheben und Wissen in radikaler Weise zu öffnen. Diese Idee muss kritisch hinterfragt werden. Wie „offen“ muss bzw. kann gesellschaftliche Wissensverwaltung sein? Die Kritiker des Projekts bestehen auf einem Expertenwesen, die Befürworter glauben an das Potential der Vielen. Letztlich geht es – so die These dieses Aufsatzes – dabei weniger um das Wissen selbst als um das kritische Hinterfragen von dessen Organisation und Bereitstellung.

2. Das Wikipedia-Prinzip

Die Online-Enzyklopädie Wikipedia steht im Kontext eines neuen, weiteren Entwicklungsschritts in der Nutzung des Internets. „Social Software“ bzw. „Web 2.0“ sind die inzwischen äußerst inflationär verwendeten Schlagwörter, um das Phänomen zu beschreiben. Aus dem bisher auch im Internet funktionierenden analogen Prinzip von Sendern (Webseitenangebote) und Empfängern (Lesern) wurde das dialoge Prinzip der gemeinschaftlichen Interaktion. Dank neuer Technologien ist es inzwischen möglich, dass Nutzer selbst die Inhalte der Seiten gestaltet. Sei es bei YouTube (www.youtube.com) mit eigenen Videos, bei MySpace (www.myspace.com) für die eigene Selbstdarstellung oder bei Xing (www.xing.com) für Geschäftskontakte: Die Inhalte werden ausschließlich von den Nutzern generiert. Der Betreiber der Webseite stellt lediglich den Server und intuitiv zu benutzende Funktionalitäten in passendem Design zur Verfügung. Dort entstehen „Communities“, die ihre eigenen Gesetzlichkeiten entwickeln, „Netiquetten“, also Verhaltenrichtlinien, aufstellen, an die sich die Nutzer zu halten haben, und die Streitigkeiten virtuell in aller Öffentlichkeit aushandeln. Bei vielen Plattformen herrschen demokratische Grundstrukturen: Die internen Normen werden beständig durch alle verhandelt und weiterentwickelt.[Fn13]

Die Enzyklopädie Wikipedia, 2001 ins Leben gerufen, realisiert dieses demokratische Prinzip auf exemplarische Weise[Fn14]: Weder sind die Inhalte, die Gliederung, die Länge oder die Anzahl der Beiträge noch die Beitragenden festgelegt. Jeder kann einen neuen Eintrag anlegen, Bestehendes ändern, sich an den Diskussionen der Inhalte beteiligen, den Beleg fragwürdiger Details anmahnen oder die Löschung eines Artikels beantragen. Dies geschieht alles direkt über Funktionen auf der Webseite, ein Internetanschluss ist die einzige Voraussetzung. Es gibt keinen Moderator, der vor der Veröffentlichung die Einträge auf ihre Richtigkeit überprüft oder Änderungen ablehnen könnte.

Das Nupedia genannte Vorgängerprojekt, der Wikipedia-Gründer Jimmy Wales und Larry Sanger war noch anders organisiert. [Fn15] Zwar durfte jeder Artikel vorschlagen. Diese mussten aber vor der Veröffentlichung von Experten begutachtet werden. Nupedia war wenig erfolgreich, da das Gutachter-Verfahren zu lange dauerte. Nach einem Jahr fand man dort gerade 20 Artikel. Mit dem Einsatz von Wiki-Software erlaubte man das direkte Einstellen und Editieren von Texten. Man gliederte diesen Teil von Nupedia aus und gründete Wikipedia. Dank der neuen Software und dem Verzicht auf jegliche Kontrolle der Inhalte von Seiten der Betreiber wurde Wikipedia schnell zum Erfolg: Nach einem Jahr konnte man bereits 20.000 Artikel verzeichnen, bis heute sind es 2,5 Millionen. Artikel in der englischsprachigen Wikipedia und 850.000 in der zweitumfangreichsten, deutschsprachigen Ausgabe.[Fn16] Zum Vergleich: Die aktuelle Brockhaus-Ausgabe hat 300 000 Stichwörter.[Fn17] Dazu handelt es sich um ein wirklich internationales Unterfangen: Wikimedia, der Verein, der die Serverstrukturen für Wikipedia bereitstellt, Fundraising für das Projekt betreibt und eine entsprechende Öffentlichkeitsarbeit leistet, listete im Dezember 2008 264 unterschiedliche Sprachprojekte auf. [Fn18]

Einige im Laufe der Zeit entwickelte Grundprinzipien sollen einen qualitativen Mindeststandard garantieren. Wichtig ist vor allem der neutrale Standpunkt, der gegenüber dem Thema eingenommen werden muss. Ist dieser aufgrund widerstreitender Forschungsstandpunkte nicht zu finden, müssen die verschiedenen Ansätze so neutral wie möglich dargelegt werden. Des Weiteren müssen alle Angaben belegbar sein – wenngleich dieser Beleg nicht im Artikel, sondern lediglich auf Nachfragen erbracht werden muss. Dies liegt auch an der Übereinkunft, keine neuen, nicht-etablierten Forschungsansätze in der Wikipedia zu kommunizieren. Genauso wie in einer herkömmlichen Enzyklopädie soll lediglich der allgemein anerkannte Stand des Wissens wiedergegeben werden. Grundsätzlich sind die Autoren gehalten, so allgemeinverständlich wie möglich zu schreiben. So gibt es Mitglieder („Wikipedianer“), die sich allein der Verbesserung des Stils verschrieben haben.

Schlechte bzw. inhaltsleere Artikel können in einem zweistufigen Verfahren der Löschung zum Opfer fallen. Gleichzeitig können Artikel, die besonders herausragen, durch Abstimmung zu „lesenswerten“ oder gar „exzellenten“ Artikel ernannt werden. Außerdem gibt es Redakteure, die sich offiziell für bestimmte Themen verantwortlich fühlen und Artikel aus diesem Bereich im Auge behalten.

So anarchisch das Wikipedia-Prinzip an sich ist, so verständlich ist, dass die konkrete Artikelproduktion nicht völlig chaotisch abläuft. Die Wikipedia-Gemeinschaft hat sich inzwischen selbst feste Strukturen gegeben, die zur Herausbildung von Netzwerken und einem Aktivenwesen führten. Es wurden organisatorische Einheiten und Gremien gebildet, die grundlegende Entscheidungen treffen. Portale, für die einschlägige Spezialisten verantwortlich zeichnen, bündeln Fachfragen und koordinieren die gemeinsame Arbeit. Administratoren sorgen von technischer Seite durch Sperrungen und Löschungen dafür, dass kein Wildwuchs entsteht.

Wie nicht anders zu erwarten, führt das demokratische Prinzip, das jedem erlaubt, selbst einen Artikel einzubringen, weiterzubearbeiten und zu verändern, in der Realität oft zu Konflikten. Zu allererst muss ein Autor ertragen können, dass seine wohlgesetzten Worte in kürzester Zeit vom nächsten Bearbeiter vollkommen verändert, wenn nicht sogar gestrichen werden. Man sollte die „Änderungswut“ der Wikipedianer nicht unterschätzen: Momentan wird in der deutschsprachigen Wikipedia ein Artikel durchschnittlich 23 Mal bearbeitet. [Fn19] Dabei handelt es sich oft nur um marginale Korrekturen, wie Rechtschreibverbesserungen oder Anpassungen des Stils. Es können aber auch komplette Überarbeitungen vorkommen. Eine Versionenkontrolle ermöglicht zwar, ältere Fassungen des Textes wiederherzustellen. Das ist jedoch nur von Erfolg gekrönt, wenn man die Mitschreiber davon überzeugen kann, dass die ursprüngliche Version die bessere war. Für solche Fälle gibt es eine Diskussionsseite, die jedem Artikel beigegeben ist. Auf dieser kann jeder Wikipedianer den Artikel kommentieren, fehlende Belege einfordern, stilistische Kritik anbringen, seine letzten Änderungen genauer erläutern oder mehr Inhalt anmahnen. Gelingt es nicht, über die Diskussionsseite einen Konflikt zu beheben, droht ein „Edit War“: ein Krieg um die Versionen. Dann können die streitenden Parteien einen Vermittlungsausschuss anrufen. Im Extremfall werden Artikel für den unmittelbaren Zugriff gesperrt, Änderungswünsche müssen dann immer erst ausdiskutiert werden, bevor sie übernommen werden.

Neues Wissen durch Offene Inhalte – Das Ideal…

Das Ideal von Wikipedia lässt sich wie folgt beschreiben: Jeder, der einen Begriff für beschreibungswürdig hält, kann einen neuen Eintrag generieren und lädt damit alle ein, daran mitzuschreiben. Dadurch, dass mehrere Autoren gleichzeitig an einem Artikel schreiben können, wird unterschiedliches Wissen eingearbeitet und miteinander abgeglichen. Alle Informationen werden in das System eingespeist und stehen allen zur Verfügung. Aufgrund der Tatsache, dass so viele Kenner der Materie wie möglich mitschreiben, kommt die größtmögliche Anzahl von Informationen zusammen. Ein Sachverhalt kann in seiner ganzen Fülle dargestellt werden und spiegelt nicht mehr nur das subjektive Wissen eines Einzelnen wieder. Durch den unendlichen iterativen Prozess wird im Idealfall eine Weltbeschreibung geleistet, die kein Herrschaftswissen mehr kennt. Wikipedia ist mit diesem Ideal Teil einer größeren Bewegung, die sich vor über dreißig Jahren etabliert hat und die daran glaubt, dass nicht ein abgeschlossenes, von wenigen kontrolliertes System, sondern die kollektive Aktivität Vieler neues und allgemein nutzbares Wissen erzeugt: der Open Source-Bewegung. Es lohnt sich, die Beweggründe, die Implikationen und die Weiterentwicklungen dieser Bewegung ein wenig näher zu betrachten, um besser zu verstehen, worin die Hoffnungen der Wikipedianer begründet sind.

Ausgangpunkt der Open Source- bzw. Freien-Software-Bewegung war ursprünglich, ein konkurrenzfähiges und besseres Betriebssystem als Alternative zu den Produkten kommerzieller Anbietern (allen voran Microsoft) zu programmieren. Statt dass der Quellcode von ein paar wenigen Programmierern unter Ausschluss der Öffentlichkeit geschrieben und fortentwickelt wird, sollte Software in offener und gemeinschaftlicher Weise entstehen.[Fn20]

Der Code, strukturell modular aufgebaut, ist für jeden einsehbar. Einzelne fühlen sich für spezielle Module zuständig und garantieren auch deren Interoperabilität. Fehler oder Verbesserungsvorschläge werden an ein gemeinschaftliches Forum berichtet und von anderen aufgegriffen. Weiterentwicklungen werden zusammen konzipiert und umgesetzt. Es galt und gilt: „Given enough eyballs, all bugs are shallow“[Fn21] – Qualitäts- und Fehlerkontrolle werden durch viele Tester und Entwickler leichter. Dass dieses Prinzip gut funktioniert, ist hinlänglich bekannt. Viele Softwareprodukte sind durch dieses Produktionssystem entstanden, beispielsweise das Betriebssystem Linux, das Textverarbeitungssystem LaTeX oder der Browser Firefox. Die Entstehungszusammenhänge sind immer dieselben: die Software wird durch Kollaboration zwischen vielen Programmierern entwickelt, die freiwillig, ohne (zuerst einmal) kommerzielle Interessen, ihre Programmierleistung den anderen zur Verfügung stellen.[Fn22] Trotz des an sich altruistischen Entstehungszusammenhangs haben sich inzwischen in diesem Feld durchaus tragfähige Geschäftsideen etabliert, die vor allem Extra-Services wie Support oder Anpassungen an Unternehmensanforderungen beinhalten.

Das Urheberrecht erlaubt nicht ohne weiteres die hier geschilderten kollaborativen Arbeitsprinzipien. Es schützt nämlich das geschaffene Werk vor ungefragtem Kopieren, Nutzen und Weiterentwickeln. Um also Open Source-Software überhaupt zu ermöglichen, musste ein spezielles Lizenzsystem entwickelt werden, das dem Urheber erlaubt, pauschal anderen die Weiternutzung und -bearbeitung zu gewähren. Richard Stallman, der 1984 das Massachusetts Institute of Technology verließ, um sich dem freien Programmieren widmen zu können, entwickelt in den 1980er Jahren die Software-Lizenz GNU General Public Licence (GPL), die bis heute eingesetzt wird.[Fn23]

Gerade die rechtliche Seite und die positiven Erfahrungen aus der gemeinschaftlichen Produktion von Software haben einige Akteure dazu inspiriert, das Open Source-Prinzip auf andere Bereiche auszuweiten. Einer der wichtigsten Vordenker, Lawrence Lessig, plädiert für eine neue „Freie Kultur“, die das Urheberrecht umkehren soll, um freien Austausch und freie Wissensproduktion zu ermöglichen.[Fn24] Sein Argument lautet, dass Innovation schon immer bedeutet hat, bestehendes geistiges Eigentum zu übernehmen und weiterzuentwickeln. Der jahrhundertealte, ursprüngliche Sinn des „Copy-Rights“, Drucker vor illegalen Kopierern zu schützen, funktioniere dagegen angesichts der neuen digitalen Möglichkeiten per se nicht mehr. Lessig ist darum der Überzeugung, dass es gerade aus ökonomischen Gründen wichtig sei, das Copyright zu einem „Copyleft“ zu machen: nur noch bestimmte Rechte sollten beim Urheber bzw. Copyright-Besitzer verbleiben. Wichtig sei nach wie vor im Sinne des Persönlichkeitsrechts als Urheber des Werks anerkannt zu werden. Gleichzeitig soll aber den anderen eine erweitere Nutzung an dem Geschaffenen ermöglicht werden.[Fn25] Yochai Benkler, ebenfalls ein Verfechter der Liberalisierung des Copyrights, erwartet dadurch einen gesellschaftlichen Wohlstand durch elektronische Netzwerke.

„In the networked information economy, the physical capital required for production is broadly distributed throughout society. Personal computers and network connections are ubiquitous. This does not mean that they cannot be used for markets, or that individuals cease to seek market opportunities. It does mean, however, that whenever someone, somewhere, among the billion connected human beings, and ultimately among all those who will be connected, wants to make something that requires human creativity, a computer, and a network connection, he or she can do so alone, or in cooperation with others. […] The result is that a good deal more that human beings value can now be done by individuals, who interact with each other socially, as human beings and as social beings, rather than as market actors through the price system.”[Fn26]

Tatsächlich wird die Idee besonders von Kreativen im Musikbereich sehr begrüßt. Der Traum, über die eigene Internetseite von Talentsuchern entdeckt zu werden, wird zwar zumeist enttäuscht. Aber die Szene profitiert davon, dass die Verbreitung und Weiterverwendung von Werken im Internet durch diese Lizenzen einfacher geworden ist.[Fn27] Gerade die Popularität der großen, interaktiven Webseiten wie der Bilddatenbank Flickr.com liegt in der Nutzung von solchen Lizenzen begründet. Und auch die Wissenschaftswelt übernimmt inzwischen teilweise Lessigs Überlegungen. Seit Ende der 1990er Jahre hat sich dort eine Bewegung etabliert, die den freien Zugang zu Wissen fordert (Open Access). Hintergrund dieser Forderung ist, wie bekannt sein dürfte, eine zunehmende Verteuerung der Versorgung mit wissenschaftlicher Fachinformation bei gleichzeitig neuen und billigeren Veröffentlichungswegen über das Internet. Ausgangspunkt ist die Überlegung, dass es nicht im gesellschaftlichen Interesse sein kann, Ergebnisse von durch die öffentliche Hand finanzierter Forschungen in Form von Zeitschriften über die Bibliotheken von derselben öffentlichen Hand kaufen zu müssen.[Fn28] Im Vordergrund steht also die freie Verfügbarkeit von Information. Auch die Online-Enzyklopädie Wikipedia hat sich der Idee der freien Verbreitung von Wissen verschrieben.[Fn29] Folgerichtig sind die Inhalte unter eine „GNU Free Documentation Licence“ gestellt. Damit wird zum einen erst ermöglicht, dass die Inhalte weiterbearbeitet werden können. Zum anderen erlaubt die Lizenz anderen, die Inhalte von Wikipedia, mit Nennung der Quelle, zu spiegeln.

3. … und seine Kritiker

Doch so hehr das Ideal auch sein mag, die Realität zeigt, dass die Vision von der freien Produktion und dem freien Zugang zu Wissen bei der Realisierung Probleme aufwirft. Problematisch ist vor allem die Übertragung der Arbeitsweisen der Open-Source-Bewegung auf breitere Bereiche der Wissensproduktion. Wie Paul Duguid ausführt, lassen sich nicht alle Prinzipien der kollaborativen Entwicklung ohne weiteres auf die Text- oder Kunstproduktion abbilden.[Fn30] Der modulare Aufbau der Software, der abgeschlossene Entwicklungspakete erlaubt, und die Tatsache, dass schlechter Quellcode dazu führt, dass ein Programm entweder gar nicht funktioniert oder zumindest Fehler produziert, stellt ein wirkungsvolles Qualitätssicherungssystem dar. Bei Texten, wie sie in der Wikipedia geschrieben werden, gibt es kein Äquivalent. Weder stürzt bei Fehlern das Programm ab, noch kann man sicher sein, dass es jemanden gibt, der ungewünschte Nebeneffekte an einen Programmierer meldet. Man kann nur hoffen, dass durch die Masse der Wikipedianer Fehler entdeckt werden. Garantieren kann man es nicht. Und tatsächlich findet sich in der Enzyklopädie nicht nur „reines Wissen“, sondern auch viel Nutzloses und Falsches, wie die Liste der aktuellen Löschkandidaten regelmäßig belegt.[Fn31] Edit Wars sorgen dafür, dass heute das eine und morgen das andere unter einem Schlagwort zu finden ist. Kritiker des Projekts sehen den Grund dafür vor allem in der „Offenheit“ des Systems.[Fn32] Aufgrund der Tatsache, dass jeder daran mitschreiben kann, keine vorgegebene Systematik besteht und keine Garantie auf Beständigkeit der Inhalte gegeben wird, werde eine nutzlose Ansammlung an Informationen generiert, auf die man sich in keinem Fall verlassen kann. Dasselbe gelte für die Referenzierung. Querverweise seien oftmals unsystematisch und trügen nicht zum besseren Verständnis des Artikels bei. Das Vertrauen darauf, dass es immer jemanden gibt, der solche Fehler findet und behebt, würde enttäuscht. Der grundsätzliche Verzicht auf Belege (von einigen Literaturangaben am Ende des Eintrags abgesehen) mache eine Überprüfung des Geschriebenen unmöglich. Larry Sanger, der Mitbegründer der Wikipedia, verließ aufgrund dieser Schwächen das Projekt nach einem Jahr. Aus seiner Sicht ist ein Nachschlagewerk, das keine Garantie für seine Inhalte geben kann, ein nutzloses Unterfangen. Er hat inzwischen ein neues Projekt aus der Taufe gehoben, das an die Funktionsweise von Nupedia anschließt: Citizendium (http://en.citizendium.org). Hier werden die Artikel von Experten überprüft. Nutzer müssen ihren richtigen Namen verwenden.[Fn33]

Vorgaben in der Wikipedia, wie den neutralen Standpunkt, die Verifizierbarkeit des Geschriebenen, die Versionenkontrolle und die Auswahl von exzellenten Artikeln, sind Versuche, auf dieses Unbehagen zu reagieren. Jedoch liegt es in der Natur des Projekts, dass sich die Kritiker kaum gänzlich überzeugen lassen. Denn welche Verfahren man auch immer wählt, niemand kann garantieren, dass der mühsam ausgehandelte Beitrag, den eine Gruppe vielleicht sogar für besonders empfehlenswert befunden hat, innerhalb von Sekunden durch wohlmeinende Unwissende oder gar böswillig Gesinnte zu einem vollkommen verstümmelten, sachlich unrichtigen Text wird. Gerade der so genannte Vandalismus, also das mutwillige Zerstören von Artikeln, stellt ein großes Problem bei Wikipedia dar.[Fn34] Daneben gibt es immer wieder Fälle willentlicher Manipulation von Artikeln aus Gründen der Eigenwerbung.[Fn35] Nichts unterstreicht die gesellschaftliche Bedeutung der Wikipedia stärker, als das gezielte Bemühen von Prominenten und Firmen das allgemeine Meinungsbild über dieses Medium beeinflussen zu wollen. Damit wird die Demokratie, so Kritiker, zu einer Ochlokratie, die das Schlechteste der Massen auf sich vereinigt. Die Faktizität des enzyklopädischen Wissens ist ihrer Ansicht nach in Gefahr. Um dieser Kritik zu begegnen, wurde neben einer Verfeinerung der Qualitätssicherungsverfahren und dem aktiven Anwerben von Wissenschaftlern inzwischen die Einführung von gesichteten Versionen beschlossen.[Fn36] Damit soll dem Leser ermöglicht werden, auch eine von allem Vandalismus befreite Fassung auswählen zu können, die dann allerdings nicht unbedingt den aktuellen Wissensstand widerspiegelt. Ob dieses Vorhaben erfolgreicher sein wird, wie z.B. die geplante und nicht realisierte Buchausgabe der Wikipedia, bleibt bisher offen.[Fn37]

4. Wer darf über Wissen entscheiden?

Verfechter von freien Inhalten vertreten die Meinung, dass das Wikipedia-Prinzip nur eine logische Konsequenz der neuen technischen Möglichkeiten sei. Dank der Internet-Technologie ließen sich gesellschaftliche Entscheidungsprozesse wesentlich demokratischer gestalten. Dies habe auch Auswirkungen auf die Wissensproduktion.[Fn38] Die Gegner wiederum sehen dagegen in der fehlenden Beglaubigungsinstanz und der Offenheit der Inhalte eine unüberwindbare strukturelle Schwäche, die vor allem in einem größeren Maß an Nichtwissen ende.[Fn39] Studierenden in Seminaren wird beispielsweise das Zitieren aus der Wikipedia untersagt, da sie keine seriöse Quelle sei. Dem lässt sich entgegnen, dass man üblicherweise auch nicht den Brockhaus in einer wissenschaftlichen Arbeit zitiert, da hier wie dort eine zu allgemeine und undifferenzierte Auseinandersetzung mit dem Thema stattfindet. Schon allein darum ist natürlich das Zitieren aus der Wikipedia ebenso abzulehnen.[Fn40] Gleichzeitig, so aber weiter das Argument der Kritiker, ist dazu noch der Entstehungszusammenhang der Inhalte in Wikipedia zu „unwissenschaftlich“. Als wissenschaftliche Quelle eigne sie sich daher auf keinen Fall. Dieses Argument, wie auch die faktische Bedeutung der Wikipedia problematisiert jedoch hinsichtlich der Auswahl und Präsentation von Wissen auf tiefer gehende Weise das traditionelle Wissenssystem. In den Fokus rücken die „Wissensexperten“ bzw. ihr Stellenwert in der Gesellschaft und für die Ordnung von Wissen.

Michel Foucault hat durch seine Arbeiten zur Diskursgeschichte gezeigt, dass es nicht nur bedeutungsvoll ist, was in welchem Kontext als wissenswert befunden wird, sondern auch wer am Wissensdiskurs teilnimmt und wie dieser organisiert ist.[Fn41] Gerade die Erstellung einer Enzyklopädie belegt dies. Wie bereits zu Beginn des Aufsatzes ausgeführt, greifen hier die etablierten Strukturen des Wissenssystems besonders gut: Traditionell hat jeder Herausgeber die verantwortungsvolle und damit auch selektive Aufgabe zu entscheiden, welches Wissen zu dokumentieren und zu archivieren sei.[Fn42] Die Herausgeber gelten als Experten und sind damit im Sinne von Berger/Luckmann „Sachwalter“ des Wissens, denen die Gesellschaft vertraut.[Fn43] Damit repräsentieren sie das System und gestalten es zugleich.[Fn44] Die Sachwalter stehen in einem Wissenschaftssystem, oder nach Pierre Bourdieu wissenschaftlichem „Feld“, das geprägt ist von einem „wissenschaftliche[n] Interesse, ein[em] Interesse, das im Verhältnis zu den herkömmlichen Interessen des Alltags (und insbesondere denen des ökonomischen Feldes) als uneigennützig, unentgeltlich erscheint.“[Fn45] Trotz der „Uneigennützigkeit“ gibt es aber auch im wissenschaftlichen Feld Machtstrukturen, die ihre eigenen Gesetze besitzen. Bourdieu identifiziert zwei verschiedene: eine politische, quasi institutionalisierte, und eine spezifische, auf persönlicher Ebene und über Anerkennung funktionierende Struktur.[Fn46] Wikipedia, dies ist die These des vorliegenden Aufsatzes, unterläuft beide Ebenen und sorgt dadurch für Abwehrhaltung bei den dem wissenschaftlichen Feld Zugehörigen. Oder um es mit Larry Sanger zu sagen: „[A]s a community, Wikipedia lacks the habit or tradition of respect for expertise.”[Fn47] Wie ist das zu verstehen? Von „politischer“ Seite stellt die Online-Enzyklopädie die Trennung zwischen Experten und Laien, zwischen Angehörigen des wissenschaftlichen Feldes und den Außenstehenden, in Frage. Tatsächlich stammen viele gute Artikel von Autoren, die gerade nicht das traditionelle Wissenschaftssystem repräsentieren. Dies zeigt, dass man ganz offensichtlich auch zum Spezialisten werden kann, ohne aus einer anerkannten Institution des Wissens (z.B. Universität) zu kommen. Zugleich entmachtet das diejenigen, die beispielsweise durch eine Professur einen allgemein anerkannten Platz innerhalb des wissenschaftlichen Feldes erlangt haben. Dies hat Folgen für die persönlichen Abhängigkeiten. Ein Wissenschaftler erreicht seine Position gewöhnlich, indem er als Person ausreichend „symbolisches Kapital“ (im Bourdieuschen Sinne) durch mit seinem Namen verknüpfte Publikationen angehäuft hat. Der berufliche Erfolg ist zwingend an diese Verbindung von Gesagtem und Namen gebunden. Je mehr symbolisches Kapital jemand angesammelt hat, umso mehr weist er sich als Experte aus und umso bedeutungsvoller sind seine Aussagen zu einem Thema. Seine persönliche Macht steigt.

Wikipedia dagegen entpersonalisiert das Geschriebene. Der Leser sieht sich mit einem quasi-anonymen Autorenkollektiv konfrontiert: selbst wenn sich über eine Versionenkontrolle die Beiträge der einzelnen Autoren ermitteln lassen, finden sich dort zumeist nur spezielle Netzidentitäten oder nur IP-Adressen. Das und die Forderung nach einem „neutralen Standpunkt“ – so problematisch das Konzept an sich ist – sollen gerade gewährleisten, dass kein Name unauslöschlich mit einem Begriff verbunden werden kann. Der Eintrag muss ohne einen Urheber auskommen, die Aussagen für sich stehen. Diese steht im Widerspruch zur traditionellen wissenschaftlichen Praxis.

Umgekehrt bedarf das traditionelle Wissenschaftssystem aber auch der Namen, um Aussagen in einen Ordnungszusammenhang zu stellen. Das System ist darauf angewiesen, jede Aussage mit einer Person verbinden zu können, um sie nach Schulen, Denkrichtungen und Theorien kategorisieren zu können.[Fn48] Bzw. mit Bourdieu: um ihre Position innerhalb des wissenschaftlichen Feldes identifizieren zu können. In der Online-Enzyklopädie dagegen sind die Einträge ohne Namen und können daher keiner Richtung zugeschrieben werden. Im Gegenteil: auch hier soll der neutrale Standpunkt dafür sorgen, dass keine spezielle Denkweise die Oberhand gewinnt, sondern bestenfalls alle möglichen Ansätze eklektisch zusammengeführt werden.[Fn49] Im bisherigen Wissenschaftssystem sind solche Texte nicht verwendbar. Es hat kein Beschreibungsinventar für Inhalte, die einerseits so homogen wirken und gleichzeitig einen so disparaten Entstehungszusammenhang haben. Und schließlich wird auch die Aufgabe, die den Experten vor allem zukommt, nämlich die Auswahl von Inhalten, die für eine Gesellschaft als relevant für ihre Wissensordnung zu erachten sind, durch Wikipedia unterminiert. Früher war die Auswahl aufgrund der physischen Beschränkung auf ein Buch oder höchstens eine Buchreihe notwendig. Schon aus Platzgründen war eine Auswahl notwendig. Umso bedeutsamer war die Entscheidung darüber, was in die Auswahl gehörte. Das Archiv des Wissens wurde somit von physischen Bedingungen begrenzt. Diese Beschränkung gilt im Zeitalter des Internets nicht mehr. Durch immer effizientere Speichermedien, die Wiki-Technologie mit ihrer flachen Navigationsstruktur und einer guten Suchfunktion ist es möglich, alles, was nur von mindestens einem Menschen gewusst wird, dem enzyklopädischen Wissen hinzuzufügen. Alles Gewusste steht gleichberechtigt nebeneinander.

Doch die Gleichberechtigung des Geschriebenen führt zum Kernproblem bei Wikipedia: die immerwährende „Gefahr“ der Veränderung bestehender, bereits ausgehandelter Artikel. Der Beschluss, in der Wikipedia, gesicherte und damit zwar keine aktuellen, aber dafür als valide anzusehende Versionen zur Verfügung zu stellen, zeigt, dass sogar Wikipedianer vor so viel Subversion Angst haben. Es ist in der Tat fraglich, inwieweit eine Enzyklopädie als Referenz dienen kann, bei der heute theoretisch das eine und am nächsten Tag das Gegenteil stehen kann. Doch eigentlich muss die Frage anders gestellt werden: Ist eine Selektion und Strukturierung des Gewussten angesichts unserer gesellschaftlichen Realität der „Parallelwelten“ und pluralistischen Lebensweisen überhaupt noch zu erreichen oder gar wünschenswert? Wenn „die allgemeine Verbindlichkeit eines sinngebenden Deutungszusammenhangs fehlt“[Fn50], ist es doch eigentlich nur konsequent, wenn alles Gewusste ohne Bewertung nebeneinander stehen darf. Für Berger/Luckmann wirkt der zunehmende Pluralismus zersetzend auf die Wirklichkeitssbestimmung einer Gesellschaft:

„Die pluralistische Situation wird vom rapiden sozialen Wandel begleitet, ja, Pluralismus ist selbst ein Beschleunigungsfaktor, weil er dazu beiträgt, die Resistenz der traditionellen Wirklichkeitsbestimmungen gegen Veränderungen zu unterminieren. Pluralismus ermutigt sowohl Skepsis als den Willen zu Neuem und wirkt als solcher auf die Wirklichkeitsgewissheit des traditionellen Status quo subversiv.“[Fn51]

Die Subversion macht auch vor dem Wissenschaftssystem nicht halt: Nicht zuletzt aufgrund der Zersplitterung der Wissensbestände können heute keine speziell ausgewählten Personen das Wissen einer gesamten Gesellschaft repräsentieren. Galt früher das Konkurrieren um die beste Wirklichkeitsbeschreibung als Kennzeichen des reinen Expertenwesens, gilt es jetzt zu verstehen, dass es für niemanden mehr ein „Wissensmonopol“ gibt.[Fn52] Das Wikipedia-Prinzip mit seiner Offenheit und Unzuverlässigkeit offenbart einen faktisch schon vollzogenen, weiteren Schritt in der Kapitulation vor der Komplexität unserer Welt. So leistet die Online-Enzyklopädie, jenseits der Bereitstellung von Informationen, einen wichtigen Dienst für die Nutzer: Es macht die Kontingenz und Ambiguität von Informationen auf einfache Art und Weise sichtbar.[Fn53] Damit wird ganz im Sinne von Berger/Luckmann erfahrbar, dass das bereitgestellte Wissen nicht absolute Gültigkeit besitzt, sondern rein gesellschaftlich ausgehandelte Momentaufnahmen eines gesellschaftlichen Konsens darstellt:

„Ganz egal, was sich die WikipedianerInnen denken von 'ihrer’ Wahrheit – Wikipedia zwingt Lesende und Schreibende nachzuvollziehen, was es bedeutet zu sagen, Wissen sei historisch geprägt und sozial konstruiert.“[Fn54]

Damit erhält auch die Forderung nach mehr freien Inhalten ein größeres Gewicht. Es geht eben nicht allein darum, eine weniger ökonomisierte Alternative zu Software-Herstellern oder Verlagen zu entwickeln, sondern darum, Wissen allen gleichermaßen zugänglich zu machen. Wenn man sich nicht mehr auf die Wissensexperten verlassen kann, ist der freie Zugriff auf alle Information für eigenständige Urteile unerlässlich. Ralf Schneider prognostiziert beispielsweise, dass es zukünftig auch Meta-Enzyklopädien geben könnte, die die Einträge aus verschiedenen Quellen kumuliert, um die Wissensbasis zu verbreitern.[Fn55] Damit würde die Tatsache der Diversität der Wirklichkeiten noch offensichtlicher. Natürlich genügt der offene Zugang nicht allein. Genauso wichtig ist die entsprechende (Medien-)Kompetenz, um die Quellen auch bewerten zu können. Was das zukünftig für Schulen und andere Ausbildungsstellen bedeutet, kann hier nicht weiter ausgeführt werden.[Fn56]

Welche Folgen hat das jedoch für die Nutzer von Wikipedia? Wie sehr können und sollen sie sich auf die in Wikipedia vorgehaltenen Inhalte verlassen bzw. wie gehen sie mit der mangelnden Verlässlichkeit der dort vorgehaltenen Informationen um? Ein faktischer Vergleich zwischen Online-Enzyklopädie und der „Encyclopaedia Britannica“ durch die Online-Ausgabe der Zeitschrift Nature ergab, dass die in Wikipedia vorgehaltenen Informationen nur unwesentlich weniger korrekt sind: Durchschnittlich offenbarten die Einträge in der „Britannica“ drei Ungenauigkeiten, in Wikipedia vier.[Fn57] Auch wenn die Herausgeber der Britannica Nature vorwarfen, unsauber gearbeitet zu haben, bleibt als bemerkenswerte Erkenntnis eher, dass auch eine der renommiertesten Enzyklopädien nicht frei von Fehlern ist.[Fn58] „But […] Wikipedia’s strongest suit is the speed at which it can update […].”[Fn59] Eine Untersuchung aus dem Jahr 2006 belegt zugleich, dass die Sorge, normale Nutzer würden der Enzyklopädie blind vertrauen, unbegründet ist.[Fn60] Es zeigte sich nämlich, dass Experten die Glaubwürdigkeit von Artikeln aus ihrem Fachgebiet deutlich höher einschätzen als Laien. Anders ausgedrückt: Laien wissen um die Rahmenbedingungen für das Zustandekommen des Gelesenen und da sie keine Fachleute sind, verwenden sie die dargebrachten Ergebnisse mit einer gewissen Skepsis.

Der Erfolg von Wikipedia beweist, dass die Menschen offenbar weitaus besser mit dem Wissenspluralismus umgehen können, als ihnen von den traditionellen Experten zugetraut wird. Das stimmt zuversichtlich angesichts der Tatsache, dass wir als „Wissensgesellschaft“ auf die kompetente und damit kritische Nutzung von Wissen angewiesen sind.

Literaturverzeichnis

Alle genannten Internetquellen wurden, sofern nicht anders gekennzeichnet, zum Stand vom 21.12.2008 zitiert.

William Badke: What to Do With Wikipedia, in: Online 32 (2008), Nr. 2, S. 48-50.

Yochai Benkler: The Wealth of Networks. How Social Production Transforms Markets and Freedom, New Haven, London: Yale University Press, 2006; URL: http://www.benkler.org/wealth_of_networks/index.php?title=Download_PDFs_of_the_book.

Peter L. Berger/Thomas Luckmann: Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Mit einer Einleitung zur deutschen Ausgabe von Helmuth Plessner. 20. Auflage, Frankfurt a. M.: Fischer Taschenbuch 2004.

Uwe H. Bittlingmayer: Wissensgesellschaft’ als Wille und Vorstellung, Konstanz: UVK Verlagsgesellschaft 2005.

Pierre Bourdieu: Homo academicus. Frankfurt/ a.M.: Suhrkamp 1992.

Pierre Bourdieu: Vom Gebrauch der Wissenschaft. Für eine klinische Soziologie des wissenschaftlichen Feldes. Konstanz: Universitätsverlag, 1998 (édition discours, 12).

James Boyle: The Second Enclosure Movement and the Construction of the Public Domain, in: Law and Contemporary Problems 66 (2003), S. 33-74.

Peter Burke: Papier und Marktgeschrei. Die Geburt der Wissensgesellschaft. Aus dem Englischen von Matthias Wolf, Berlin: Wagenbach 2001.

Thomas Chesney: An Empirical Examination of Wikipedia’s Credibility, in: First Monday 11 (2006), Heft 11; veröffentlicht am 24.8.2006; URL: http://firstmonday.org/issues/issue11_11/chesney/index.html; Stand: 21.5.2007.

Daniel Diemers: Virtual Knowledge Communities. Erfolgreicher Umgang mit Wissen im digitalen Zeitalter. Dissertation der Universität St. Gallen, Hochschule für Wissenschafts-, Rechts- und Sozialwissenschaften (HSG) zur Erlangung der Würde eines Doktors der Wirtschaftswissenschaften, Bamberg: Selbstverlag 2001.

Paul Duguid: Limits of Self-Organization: Peer Production and ‚Laws of Quality’, in: First Monday 11 (2006), Heft 10, URL: http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1405/1323.

Richard von Dülmen und Sina Rauschenbach (Hrsg.) Macht des Wissens. Die Entstehung der modernen Wissensgesellschaft. Unter Mitwirkung von Meinrad von Engelberg. Köln, Weimar, Wien: Böhlau 2004.

Michel Foucault: Was ist ein Autor?, in: ders.: Schriften zur Literatur, Frankfurt u.a.: Ullstein, 1979, S. 7-31.

Michel Foucault: Archäologie des Wissens. Frankfurt a. M: Suhrkamp 1981.

Ingo Frost: Zivilgesellschaftliches Engagement in virtuellen Gemeinschaften? Eine systemwissenschaftliche Analyse des deutschsprachigen Wikipedia-Projektes, München: Utz 2006; URL: http://www-lehre.inf.uos.de/~ifrost/offiziell/frost2006_wikipedia.pdf

Jim Giles: Internet Encyclopaedias Go Head to Head. Jimmy Wales’ Wikipedia Comes Close to Britannica in Terms of the Accuracy of Its Science Entries, a Nature Investigation Finds, in: News@nature.com, veröffentlicht am 14.12.2005, update 28.3.2006;
URL:
http://dx.doi.org/10.1038/438900a.

Grüne Akademie in der Heinrich-Böll-Stiftung (Hrsg.): Die Verfasstheit der Wissensgesellschaft. Konzipiert und bearbeitet von Karsten Gerlof und Anne Ulrich, o.O.: Westfälisches Dampfboot, 2006.

Terry Hancock: Some Numbers on Creative Commons, Blogeintrag in: FreeSoftWareMagazine, veröffentlicht am 5.3.2007; URL: http://www.freesoftwaremagazine.com/blogs/some_numbers_on_creative_commons.

Jürgen Henningsen: „Enzyklopädie“. Zur Sprach- und Bedeutungsgeschichte eines pädagogischen Begriffs, in: Archiv für Begriffsgeschichte 10 (1966), S. 270-356.

Malte Herwig: Hacker im Hohen Haus, in: Leben 2.0. Wir sind das Netz. Wie das neue Internet die Gesellschaft verändert, Spiegel Special, Heft 3, 2007, S. 22f.

Ronald Hitzler: Individualisierte Wissensvorräte. Existenzbastler zwischen posttraditionaler Vergemeinschaftung und postmoderner Sozialpositionierung, in: Dirk Tänzler/Hubert Knoblauch/Hans-Georg Soeffner (Hrsg.): Zur Kritik der Wissensgesellschaft, Konstanz: UVK Verlagsgesellschaft 2006 (= Erfahrung – Wissen – Imagination. Schriften zur Wissenssoziologie, 12), S. 257-277.

Reinhard Jellen: Edit War um Friedrich Merz. Warum die Geschichte eines Wikipedia-Eintrags oft aufschlussreicher ist als der Eintrag selbst, in: Telepolis, veröffentlich am 31.3.2007; URL: http://www.heise.de/tp/r4/artikel/24/24930/1.html.

Jaron Lanier: Digital Maoism. The Hazards of the New Online Collectivism, in: Edge. The Third Culture, URL: http://www.edge.org/3rd_culture/

Lawrence Lessig: Free Culture. How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity, New York: Penguin Press, 2004; URL: http://www.free-culture.cc/freeculture.pdf.

Sorin Adam Matei: Ambiguity and Conflict in the Wikipedian Knowledge Production System, veröffentlicht am 4.4.2006, URL: http://www.matei.org/ithink/papers/ambiguity-conflict-wikipedia.

Matthias Mehldau: Die verbotene Zahl, veröffentlicht am 2.5.07; URL: http://netzpolitik.org/2007/die-verbotene-zahl/.

Neelke Wagner: Wissen, Wahrheit und Wikiality. Warum ist Wikipedia politisch? In: reflect!, aktualisiert am 6.5.2007, URL: http://www.reflect-online.org/index.php?id=317

o.V.: Das Wikipedia-Lexikon in einem Band. Die meistgesuchten Inhalte der Enzyklopädie, Gütersloh, München: Wissen-Media-Verlag 2008.

Tassilo Pellegrini/Andreas Blumauer (Hrsg.): Semantic Web. Wege zur vernetzten Wissensgesellschaft, Berlin, Heidelberg: Springer, 2006.

Christian Pentzold: Wikipedia. Diskussionsraum und Informationsspeicher im neuen Netz, München: Reinhard Fischer, 2007.

Eric S. Raymond: The Cathedral and the Bazaar, in: First Monday 3 (1998), Heft 3, ursprünglich veröffentlicht am 21.5.1997, letzte Bearbeitung am 10.2.1998; URL: http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1472/1387.

Dr. Renz: Ich habe keinen Eintrag in Wikipedia, http://www.dasliedzumspiel.de/wikipedia.mp3 veröffentlicht am 26.7.2006; Stand: 2.6.2007.

Kevin Rose: Digg This: 09-f9-11-02-9d-74-e3-5b-d8-41-56-c5-63-56-88-c0 [bei dem Titel handelt es sich um den besagten Code], veröffentlicht am 1.5.2007;
URL:
http://blog.digg.com/?p=74?.

Alex Rühle: Im Daunenfederngestöber. Wikipedia-Fälschungen, veröffentlicht am 3.11.2006, URL: http://www.sueddeutsche.de/kultur/artikel/631/90541.

Larry Sanger: Why Wikipedia Must Jettison Its Anti-Elitism, in: Kuro5hin, veröffentlicht am 31.12.2004; URL: http://www.kuro5hin.org/story/2004/12/30/142458/25.

Christian Schlieker: Wissen auf wikipedia.org. Explorative Untersuchung von Wissen in kollektiven Hypertexten. Diplomarbeit, Universität Bremen, Version 1.01; URL: http://www.user.uni-bremen.de/~chrof/wissen_auf_wikipedia.pdf, hier S. 37-40.

Ralf H. Schneider: Enzyklopädien im 21. Jahrhundert. Lexikographische, kommunikations- und kulturwissenschaftliche Strukturen im Kontext neuer Medien. Karlsruhe, 2008, urn:nbn:de:swb:90-77687.

Lisa Spiro: Is Wikipedia Becoming a Respectable Academic Source?, veröffentlicht am 1.9.2008; URL: http://digitalscholarship.wordpress.com/2008/09/01/is-wikipedia-becoming-a-respectable-academic-source.

Ilja Srubar: Die Unwissensgesellschaft. Moderne nach dem Verlust von Alternativen, in: Dirk Tänzler/Hubert Knoblauch/Hans-Georg Soeffner (Hrsg.): Zur Kritik der Wissensgesellschaft, Konstanz: UVK Verlagsgesellschaft 2006 (= Erfahrung – Wissen – Imagination. Schriften zur Wissenssoziologie, 12), S. 139-154

Richard M. Stallman: Free Software, Free Society. Selected Essays. Introduction by Lawrence Lessig, edited by Joshua Gay, Boston: Free Software Foundation, 2002; URL: http://notabug.com/2002/rms-essays.pdf.

Theo Stammen/Wolfgang E. J. Weber: Zur Einführung, in: dies. (Hrsg.): Wissenssicherung, Wissensordnung und Wissensverarbeitung. Das europäische Modell der Enzyklopädien, Berlin: Akademie Verlag 2004 (=Colloquia Augustana, 18), S. 9-12.

Nico Stehr: Arbeit, Eigentum und Wissen. Zur Theorie von Wissensgesellschaften, Frankfurt/ a.M.: Suhrkamp 1994.

Andreas Stein: Die Open Source-Bewegung. Entwicklung – Organisation – Innere Ökonomie, Saarbrücken: K. Müller, 2006, S. 97-127.

Markel Tumlin u.a.: Collectivism vs. Individualism In a Wiki World: Librarians Respond to Jaron Lanier’s Essay ‚Digital Maoism: The Hazards of the New Online Collectivism“, in: Serials Review 33 (2007), Heft 1, S. 45-53; URL: http://dx.doi.org/10.1016/j.serrev.2006.11.002.

Waltraud Wiethölter/Frauke Berndt/Stephan Kammer: Zum Doppelleben der Enzyklopädik – eine historisch-semantische Skizze, in: dies. (Hrsg.): Vom Weltbuch bis zum World Wide Web – Enzyklopädische Literatur, Heidelberg: Winter 2005.

Uwe Wirth: Zur Medialität enzyklopädischer Verknüpfung. Die Rolle des Hyperlinks im Rahmen hypertextueller Wissensorganisation, in: Waltraud Wiethölter/Frauke Berndt/Stephan Kammer (Hrsg.): Vom Weltbuch bis zum World Wide Web – Enzyklopädische Literatur, Heidelberg: Winter 2005, S. 287-303.

Fußnoten

[Fn 1] Dr. Renz: Ich habe keinen Eintrag in Wikipedia, http://www.dasliedzumspiel.de/wikipedia.mp3 veröffentlicht am 26.7.2006; Stand: 2.6.2007. (zurück)

[Fn 2] Vgl. Peter L. Berger/Thomas Luckmann: Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Mit einer Einleitung zur deutschen Ausgabe von Helmuth Plessner. 20. Auflage, Frankfurt a. M.: Fischer Taschenbuch 2004. (zurück)

[Fn 3] Daniel Diemers: Virtual Knowledge Communities. Erfolgreicher Umgang mit Wissen im digitalen Zeitalter. Dissertation der Universität St. Gallen, Hochschule für Wissenschafts-, Rechts- und Sozialwissenschaften (HSG) zur Erlangung der Würde eines Doktors der Wirtschaftswissenschaften, Bamberg: Selbstverlag 2001, hier S. 86. (zurück)

[Fn 4] „Wenn sich erst einmal im Gang der Geschichte einer Gesellschaft die Anhäufung von Wissen ergeben hat, so ist anzunehmen, daß, aus Gründen der Arbeitsteiligkeit, rollenspezifisches Wissen schneller zunehmen wird als allgemein verbindliches. […] Mit anderen Worten: Spezialisten […] treten auf den Plan. […] Solche Spezialisten sind immer auch zugleich die verantwortlichen Sachwalter des Ausschnittes aus dem allgemeinen Wissensvorrat, auf den die Gesellschaft sie verwiesen hat.“; Berger/Luckmann, S. 82. (zurück)

[Fn 5] Zu der fortschreitenden Professionalisierung der Wissensproduktion vgl. Macht des Wissens. Die Entstehung der modernen Wissensgesellschaft. Hrsg. von Richard von Dülmen und Sina Rauschenbach unter Mitwirkung von Meinrad von Engelberg. Köln, Weimar, Wien: Böhlau 2004, sowie Peter Burke: Papier und Marktgeschrei. Die Geburt der Wissensgesellschaft. Aus dem Englischen von Matthias Wolf, Berlin: Wagenbach 2001. (zurück)

[Fn 6]
Vgl. dazu Waltraud Wiethölter/Frauke Berndt/Stephan Kammer: Zum Doppelleben der Enzyklopädik – eine historisch-semantische Skizze, in: dies. (Hrsg.): Vom Weltbuch bis zum World Wide Web – Enzyklopädische Literatur, Heidelberg: Winter 2005, S. 1-51. So auch im Folgenden. Aus Platzgründen wird auf eine umfassende historische Darstellung der Entstehung und Entwicklung von Enzyklopädien, sowie auf eine historisch-definitorischen Abgrenzung zu „Lexikon“ und „Konversationslexikon“ verzichtet. Vgl. dazu aber Jürgen Henningsen: „Enzyklopädie“. Zur Sprach- und Bedeutungsgeschichte eines pädagogischen Begriffs, in: Archiv für Begriffsgeschichte 10 (1966), S. 270-356. Eine sehr differenziert betrachtende Ausarbeitung der historischen Wurzeln der Enzyklopädistik und der heutigen technischen Möglichkeiten, diese zu erweitern, findet sich bei Ralf H. Schneider: Enzyklopädien im 21. Jahrhundert. Lexikographische, kommunikations- und kulturwissenschaftliche Strukturen im Kontext neuer Medien. Karlsruhe, 2008, urn:nbn:de:swb:90-77687.
(zurück)

[Fn 7] Waltraud Wiethölter/Frauke Berndt/Stephan Kammer, Zum Doppelleben der Enzyklopädik – eine historisch-semantische Skizze, S. 17. (zurück)

[Fn 8] Vgl. dazu durchaus kritisch: Uwe H. Bittlingmayer: Wissensgesellschaft’ als Wille und Vorstellung, Konstanz: UVK Verlagsgesellschaft 2005. (zurück)

[Fn 9]Vgl. Uwe Wirth: Zur Medialität enzyklopädischer Verknüpfung. Die Rolle des Hyperlinks im Rahmen hypertextueller Wissensorganisation, in: Waltraud Wiethölter/Frauke Berndt/Stephan Kammer (Hrsg.): Vom Weltbuch bis zum World Wide Web – Enzyklopädische Literatur, Heidelberg: Winter 2005, S. 287-303. (zurück)

[Fn 10] Vgl. dazu die Aufsätze in Tassilo Pellegrini/Andreas Blumauer (Hrsg.): Semantic Web. Wege zur vernetzten Wissensgesellschaft, Berlin, Heidelberg: Springer, 2006. (zurück)

[Fn 11] Zum System des Rankings bei Google vgl. den Eintrag „PageRank“ in Wikipedia, der auch konkrete Algorithmen darstellt; URL: http://de.wikipedia.org/wiki/PageRank. (zurück)

[Fn12] Theo Stammen/Wolfgang E. J. Weber: Zur Einführung, in: dies. (Hrsg.): Wissenssicherung, Wissensordnung und Wissensverarbeitung. Das europäische Modell der Enzyklopädien, Berlin: Akademie Verlag 2004 (=Colloquia Augustana, 18), S. 9-12, hier S. 9, so auch das Folgende. (zurück)

[Fn 13] Dies mag nicht immer von den Betreibern der Webseite intendiert sein, aber wie ein Fall bei Digg.com zeigt, funktionieren diese Seiten anarchisch genug, dass die Nutzer den Betreibern ihre Gesetze aufzwingen können. Bei Digg handelt es sich um eine Seite, auf der Nutzer Links nach Nützlichkeit bewertet können. Dort wurde vielfach auf einen Code verwiesen, der zur Überwindung einer neuen Art von Kopierschutz interessant ist. Die Betreiber von Digg hatten sich, um Konflikte mit der Musik- und Filmindustrie zu vermeiden, zuerst dazu entschieden, die Links aus dem Bestand zu löschen. Aufgrund der zahlreichen Proteste aus der Community nahm Digg die Links wieder auf, trotz der Gefahr, verklagt zu werden. Vgl. dazu Kevin Rose: Digg This: 09-f9-11-02-9d-74-e3-5b-d8-41-56-c5-63-56-88-c0 [bei dem Titel handelt es sich um den besagten Code], veröffentlicht am 1.5.2007; URL: http://blog.digg.com/?p=74?, sowie Matthias Mehldau: Die verbotene Zahl, veröffentlicht am 2.5.07; URL: http://netzpolitik.org/2007/die-verbotene-zahl/. (zurück)

[Fn 14] Zur Selbstorganisation von Wikipedia vgl. http://de.wikipedia.org/wiki/Wikipedia:Autorenportal (zurück)

[Fn 15] http://de.wikipedia.org/wiki/Wikipedia:Geschichte_der_Wikipedia. So auch das Folgende. (zurück)

[Fn 16] Auf den jeweiligen Wikipedia-Startseiten ist die aktuelle Zahl der Einträge dokumentiert. (zurück)

[Fn 17] http://www.brockhaus.de/enzyklopaedie/aufeinenblick/index.php (zurück)

[Fn 18] http://meta.wikimedia.org/wiki/List_of_Wikipedias. (zurück)

[Fn 19] http://de.wikipedia.org/wiki/Spezial:Statistik (zurück)

[Fn 20] Zur Entstehungsgeschichte von Freier Software vgl. Richard M. Stallman: Free Software, Free Society. Selected Essays. Introduction by Lawrence Lessig, edited by Joshua Gay, Boston: Free Software Foundation, 2002; URL: http://notabug.com/2002/rms-essays.pdf. (zurück)

[Fn 21] Eric S. Raymond: The Cathedral and the Bazaar, in: First Monday 3 (1998), Heft 3, ursprünglich veröffentlicht am 21.5.1997, letzte Bearbeitung am 10.2.1998; URL: http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1472/1387. Raymond nennt dieses Gesetz „Linus’ Law“ als Tribut an Linus Torvalds, dem Initiator des freien Betriebssystems Linux. (zurück)

[Fn 22] Zu der Beweggründen der Programmierer mitzuarbeiten vgl. das Kapitel: „Motivation von Open Source Programmierern“ in: Andreas Stein: Die Open Source-Bewegung. Entwicklung – Organisation – Innere Ökonomie, Saarbrücken: K. Müller, 2006, S. 97 127. (zurück)

[Fn 23] Zu den Lizenzen und der „Free Software Foundation“ vgl. www.gnu.org. „GNU“ ist ein rekursives Akronym und steht für „GNU is Not Unix“. GNU war ursprünglich als Name für ein zu Unix alternatives Betriebssystem gedacht. Heute ist das Logo der GNU-Lizenzen der Kopf eines Gnus. (zurück)

[Fn 24] Lawrence Lessig: Free Culture. How Big Media Uses Technology and the Law to Lock Down Culture and Control Creativity, New York: Penguin Press, 2004; URL: http://www.free-culture.cc/freeculture.pdf. (zurück)

[Fn 25] Lessig hat darum ebenfalls ein Lizenzsystem entwickelt: die Creative Commons (www.creativecommons.org). Das Motto lautet: „Some Rights reserved“. Gerade im künstlerischen Umfeld des Internets haben sich die Lizenzen inzwischen schon gut etabliert: der Urheber kann ganz flexibel den Nutzern Rechte, wie das Kopieren und Weiterverbreiten ermöglichen. Er kann Auflagen machen, ob sein Werk verändert oder zu ökonomischen Zwecken verwendet werden darf. Dabei geht es auch darum, die Sphäre der gemeinfreien Güter bzw. der „public domain“ zu erweitern. Vgl. dazu James Boyle: The Second Enclosure Movement and the Construction of the Public Domain, in: Law and Contemporary Problems 66 (2003), S. 33-74. (zurück)

[Fn 26] Yochai Benkler: The Wealth of Networks. How Social Production Transforms Markets and Freedom, New Haven, London: Yale University Press, 2006; S. 6. URL: http://www.benkler.org/wealth_of_networks/index.php?title=Download_PDFs_of_the_book. (zurück)

[Fn 27] Die stetig steigende Zahl der Arbeiten, die unter einer Creative Commons-Lizenz angeboten werden, lässt dies zumindest vermuten; vgl. dazu: Terry Hancock: Some Numbers on Creative Commons, Blogeintrag in: FreeSoftWareMagazine, veröffentlicht am 5.3.2007; URL: http://www.freesoftwaremagazine.com/blogs/some_numbers_on_creative_commons. (zurück)

[Fn 28] Zu den Argumenten für Open Access sowie die konkreten Umsetzungsmöglichkeiten vgl. www.open-access.net, sowie die Webseiten von Peter Suber: http://www.earlham.edu/~peters/fos/, einem der größten Verfechter der Idee. (zurück)

[Fn 29] Wikipedia plant jedoch voraussichtlich im kommenden Jahr auf die Creative Commons-Lizenz BY-SA 3.0. zu wechseln, um besser Kompatibilität mit anderen Projekten zu erreichen. Vgl. dazu u. a. die Pressemitteilung bei Creative Commons , 3.11.2008, URL: http://creativecommons.org/weblog/entry/10443. (zurück)

[Fn 30] Paul Duguid: Limits of Self-Organization: Peer Production and 'Laws of Quality’, in: First Monday 11 (2006), Heft 10, URL: http://firstmonday.org/htbin/cgiwrap/bin/ojs/index.php/fm/article/view/1405/1323. So auch im Folgenden. (zurück)

[Fn 31] http://de.wikipedia.org/wiki/Wikipedia:Löschkandidaten (zurück)

[Fn 32] Vgl. u. a. Jaron Lanier: Digital Maoism. The Hazards of the New Online Collectivism, in: Edge. The Third, sowie die Antwort darauf, in der teilweise Lanier widersprochen, teilweise Recht gegeben wird: Markel Tumlin u.a.: Collectivism vs. Individualism In a Wiki World: Librarians Respond to Jaron Lanier’s Essay ‚Digital Maoism: The Hazards of the New Online Collectivism“, in: Serials Review 33 (2007), Heft 1, S. 45-53; URL: http://dx.doi.org/10.1016/j.serrev.2006.11.002, siehe auch Alex Rühle: Im Daunenfederngestöber. Wikipedia-Fälschungen, veröffentlicht am 3.11.2006, URL: http://www.sueddeutsche.de/kultur/artikel/631/90541, und [anwt]: Brockhaus-Sprecher kritisiert mangelnde Verlässlichkeit bei Wikipedia, veröffentlicht am 5.8.2005, URL: www.heise.de/newsticker/meldung/62531. (zurück)

[ Fn 33] Bis Ende 2008 konnte Citizendium knapp 10.000 Artikel aufweisen; vgl.
http://en.citizendium.org/wiki/CZ:Statistics. Allerdings wurden keine Hinweise gefunden werden, dass diese Artikel bisher als zitierfähiger als die von Wikipedia angesehen werden. (zurück)

[ Fn 34] Vgl. dazu http://de.wikipedia.org/wiki/Wikipedia:Vandalismusmeldung. Ingo Frost identifiziert folgende Themenebereiche als besonders anfällig für Vandalismus: Aktuelles, Sexualität, religiöser Fundamentalismus, Politische Ideologien, Geschichte, Drogen und Sucht, Studentenverbindungen, Werbung und Esoterik; vgl. Ingo Frost: Zivilgesellschaftliches Engagement in virtuellen Gemeinschaften? Eine systemwissenschaftliche Analyse des deutschsprachigen Wikipedia-Projektes, München: Utz 2006; URL: http://www-lehre.inf.uos.de/~ifrost/offiziell/frost2006_wikipedia.pdf, S. 115., S. 32-34. (zurück)

[ Fn 35] Einige jüngere Beispiele in der deutschen Wikipedia finden sich in: Reinhard Jellen: Edit War um Friedrich Merz. Warum die Geschichte eines Wikipedia-Eintrags oft aufschlussreicher ist als der Eintrag selbst, in: Telepolis, veröffentlich am 31.3.2007; URL: http://www.heise.de/tp/r4/artikel/24/24930/1.html, sowie Malte Herwig: Hacker im Hohen Haus, in: Leben 2.0. Wir sind das Netz. Wie das neue Internet die Gesellschaft verändert, Spiegel Special, Heft 3, 2007, S. 22f. (zurück)

[ Fn 36] http://de.wikipedia.org/wiki/Hilfe:Gesichtete_und_gepr%C3%BCfte_Versionen#.C3.9Cbersicht (zurück)

[ Fn 37] Es ist zwar inzwischen auch eine einbändige Buchfassung der Wikipedia bei Bertelsmann erschienen. Interessant ist diese Ausgabe aber weniger aufgrund der dort zu findenden Wissensinhalten. Vielmehr ist als ein aufschlussreiches Zeitdokument zu sehen: die Auswahl der 50.000 Stichwörter orientierte sich nicht an der vermeintlich objektiven Wichtigkeit der Begriffe, sondern rein an den Aufrufzahlen der Artikel, was zum Teil eine unerwartete, aber umso bemerkenswerte Auswahl zur Folge hatte. Vgl. dazu: Das Wikipedia-Lexikon in einem Band. Die meistgesuchten Inhalte der Enzyklopädie, Gütersloh, München: Wissen-Media-Verlag 2008. (zurück)

[ Fn 38] Frost z.B. plädiert dafür, die Funktionsweise von Wikipedia nicht nur mit der Open Source-Gemeinschaft zu vergleichen, sondern auch mit denen der ehrenamtlichen, zivilgesellschaftlichen Partizipation in demokratischen Gesellschaften, vgl. Frost, S. 115. (zurück)

[ Fn 39] Der These von Ilja Srubar, dass es durch die veränderte – ökonomisch wichtiger gewordene – Bedeutung von Wissens bei gleichzeitig anderer medialer Aufbreitung zu einer „Inhaltsleerung“ des gesellschaftlichen Wissens gekommen sei, muss in jedem Fall widersprochen werden. Gerade die Ziele der Open Access-Bewegung zeigen, dass das Zusammenspiel zwischen medialer Aufbreitung, Austausch und Entstehung von neuem Wissen komplexer gedacht werden müssen. Vgl. Ilja Srubar: Die Unwissensgesellschaft. Moderne nach dem Verlust von Alternativen, in: Dirk Tänzler/Hubert Knoblauch/Hans-Georg Soeffner (Hrsg.): Zur Kritik der Wissensgesellschaft, Konstanz: UVK Verlagsgesellschaft 2006 (= Erfahrung – Wissen – Imagination. Schriften zur Wissenssoziologie, 12), S. 139-154, Zitat S. 152. Badke spricht in Bezug auf die Angst vor Verdummung von einer noch „analog“ denkenden Dozentenschaft, die erst einmal in der „dialogen“ Wirklichkeit der Studenten ankommen müssen. Vgl. William Badke: What to Do With Wikipedia, in: Online 32 (2008), Nr. 2, S. 48-50. (zurück)

[ Fn 40] Trotzdem ist Wikipedia, wie jede andere Enzyklopädie, ein guter Startpunkt für Recherchen, vgl. dazu u. a. Lisa Spiro: Is Wikipedia Becoming a Respectable Academic Source?, veröffentlicht am 1.9.2008; URL: http://digitalscholarship.wordpress.com/2008/09/01/is-wikipedia-becoming-a-respectable-academic-source. (zurück)

[ Fn 41] Foucault nennt dies die „diskursiven Formationen“, vgl. Michel Foucault: Archäologie des Wissens. Frankfurt a. M: Suhrkamp 1981. (zurück)

[ Fn 42] Vgl. dazu Christian Schlieker: Wissen auf wikipedia.org. Explorative Untersuchung von Wissen in kollektiven Hypertexten. Diplomarbeit, Universität Bremen, Version 1.01; URL: http://www.user.uni-bremen.de/~chrof/wissen_auf_wikipedia.pdf, hier S. 37-40. (zurück)

[ Fn 43] Berger/Luckmann: Die gesellschaftliche Konstruktion der Wirklichkeit, S. 82; vgl. dazu das Zitat in Anmerkung 4. (zurück)

[ Fn 44] Zum Expertenwesen in der „Wissensgesellschaft“ vgl. Nico Stehr: Arbeit, Eigentum und Wissen. Zur Theorie von Wissensgesellschaften, Frankfurt/ a.M.: Suhrkamp 1994, besonders das Kapitel 8: „Experten, Ratgeber und Berater“ (S. 350-419). (zurück)

[ Fn 45] Pierre Bourdieu: Vom Gebrauch der Wissenschaft. Für eine klinische Soziologie des wissenschaftlichen Feldes. Konstanz: Universitätsverlag, 1998 (= édition discours, 12), hier S. 27. Vgl. dazu auch exemplarisch anhand des französischen Hochschulwesens ders.: Homo academicus. Frankfurt/ a.M.: Suhrkamp 1992. (zurück)

[ Fn 46] Bourdieu: Vom Gebrauch der Wissenschaft, S. 31-38. Soweit nicht anders angegeben, stütze ich mich im Folgenden darauf. (zurück)

[ Fn 47] Sanger: Why Wikipedia Must Jettison Its Anti-Elitism, in: Kuro5hin, veröffentlicht am 31.12.2004; URL: http://www.kuro5hin.org/story/2004/12/30/142458/25. (zurück)

[ Fn 48] „[E]in Autorenname ist nicht einfach ein Element in einem Diskurs […]; er hat klassifikatorische Funktion; mit einem solchen Namen kann man eine gewisse Zahl von Texten gruppieren, sie abgrenzen, einige ausschließen, sie anderen gegenüberstellen. […] Schließlich hat der Autorenname die Funktion, eine bestimmte Seinsweise des Diskurses zu kennzeichnen.“; Michel Foucault: Was ist ein Autor?, in: ders.: Schriften zur Literatur, Frankfurt u.a.: Ullstein, 1979, S. 7-31, hier S. 16f. (zurück)

[ Fn 49] Zu einer möglichen Diskursanalyse im Foucaultschen Sinne innerhalb der Wikipedia vgl. Christian Pentzold: Wikipedia. Diskussionsraum und Informationsspeicher im neuen Netz, München: Reinhard Fischer, 2007. (zurück)

[ Fn 50] Ronald Hitzler: Individualisierte Wissensvorräte. Existenzbastler zwischen posttraditionaler Vergemeinschaftung und postmoderner Sozialpositionierung, in: Dirk Tänzler/Hubert Knoblauch/Hans-Georg Soeffner (Hrsg.): Zur Kritik der Wissensgesellschaft, Konstanz: UVK Verlagsgesellschaft 2006 (= Erfahrung – Wissen – Imagination. Schriften zur Wissenssoziologie, 12), S. 257-277, hier S. 258. (zurück)

[ Fn 51] Berger/Luckmann, Die gesellschaftliche Konstruktion der Wirklichkeit, S. 134. (zurück)

[ Fn 52] „Man empfindet geradezu Mitgefühl für die Experten der traditionellen Wirklichkeitsbestimmung, sieht man sie wehmütig der Zeiten gedenken, in denen sie ein Monopol für Wirklichkeit hatten.“, Berger/Luckmann, Die gesellschaftliche Konstruktion der Wirklichkeit, S. 134. Der Verlust des gesellschaftlichen Ansehens, d.h. des wissenschaftlichen Kapitals, der Experten führt dazu, dass sie umso stärker auf die Einhaltung der feldeigenen Regeln, wie im Fall Wikipedias, bestehen müssen: „Um also in der Wissenschaft einen Fortschritt der Wissenschaftlichkeit voranzubringen, muß man dort für eine größere Autonomie, oder genauer: für die Erfüllung ihrer praktischen Bedingungen sorgen, für eine Anhebung der Eintrittshürden, ein Verbot des Gebrauches nichtspezifischer Waffen, geregelte Formen des Wettbewerbs, die allein dem Zwang zu gedanklicher Stimmigkeit und erfahrungswissenschaftlicher Bewahrheitung unterworfen sind.“, Bourdieu, Vom Gebrauch der Wissenschaft, S. 37f. (zurück)

[ Fn 53] Vgl. dazu Sorin Adam Matei: Ambiguity and Conflict in the Wikipedian Knowledge Production System, veröffentlicht am 4.4.2006, URL: www.matei.org/ithink/papers/ambiguity-conflict-wikipedia. (zurück)

[ Fn 54] Neelke Wagner: Wissen, Wahrheit und Wikiality. Warum ist Wikipedia politisch? In: reflect!, aktualisiert am 6.5.2007, URL: www.reflect-online.org/index.php?id=317. (zurück)

[ Fn 55] Ralf H. Schneider, S. 194-196. (zurück)

[ Fn 56] Vgl. beispielsweise die Beiträge in dem Kapitel „Wissensgesellschaft und Wissensinstitutionen“, in: Grüne Akademie in der Heinrich-Böll-Stiftung (Hrsg.): Die Verfasstheit der Wissensgesellschaft. Konzipiert und bearbeitet von Karsten Gerlof und Anne Ulrich, o.O.: Westfälisches Dampfboot, 2006, S. 208-284. (zurück)

[ Fn 57] Vgl. Jim Giles: Internet Encyclopaedias Go Head to Head. Jimmy Wales’ Wikipedia Comes Close to Britannica in Terms of the Accuracy of Its Science Entries, a Nature Investigation Finds, in: News@nature.com, veröffentlicht am 14.12.2005, update 28.3.2006; URL: http://dx.doi.org/10.1038/438900a. So auch das Folgende. (zurück)

[ Fn 58] Encyclopaedia Britannica, Inc.: Fatally Flawed. Refuting the Recent Study on Encyclopaedic Accuracy by the Journal Nature, veröffentlicht im März 2006; URL: http://corporate.britannica.com/britannica_nature_response.pdf. Vgl. dazu auch die Antworten von Nature: http://www.nature.com/nature/britannica/index.html. (zurück)

[ Fn 59] Giles, Internet Encyclopaedias Go Head to Head. Zu weiteren Vergleichen von Wikipedia mit traditionellen, deutschsprachigen Enzyklopädien , vgl. http://de.wikipedia.org/wiki/Wikipedia:Wikipedistik/Vergleiche. (zurück)

[ Fn 60] Thomas Chesney: An Empirical Examination of Wikipedia’s Credibility, in: First Monday 11 (2006), Heft 11; veröffentlicht am 24.8.2006; URL: http://firstmonday.org/issues/issue11_11/chesney/index.html; Stand: 21.5.2007
(
zurück)