> > > LIBREAS. Library Ideas # 18

Download PDF @ edoc HU Berlin
urn:nbn:de:kobv:11-100183899

Ergebnisrückmeldungen bei Schulleistungsvergleichsstudien. Ein Beispiel der Kommunikation wissenschaftlichen Wissens in die Öffentlichkeit

Die Kommunikation von Forschungsergebnissen in die erforschte Praxis oder die breitere Öffentlichkeit stellt eine relevante Form der Wissenschaftskommunikation dar, obgleich die Wirkung dieser Kommunikation kaum bekannt ist. Die Rückmeldung von Daten aus dem Schulleistungsvergleichsstudien, welche in den letzten Jahren unternommen wurden, sind relativ gut untersucht und werden im Folgenden referiert und unter dem Fokus der Wissenschaftskommunikation bewertet.


Zitiervorschlag
Karsten Schuldt, "Ergebnisrückmeldungen bei Schulleistungsvergleichsstudien. Ein Beispiel der Kommunikation wissenschaftlichen Wissens in die Öffentlichkeit". LIBREAS. Library Ideas, 18 ().


In der Bildungsforschung hat sich spätestens seit Mitte der 1990er Jahre die empirische Erziehungswissenschaft als dominierendes Leitparadigma etabliert. Dies ist nicht ohne Widerspruch geschehen, es gibt auch Anzeichen dafür, dass die Kritik an diesem Paradigma aktuell wieder stärker wird. Dennoch kann nicht bestritten werden, dass gerade groß angelegte Vergleichsstudien, die eine immense Ansammlung empirischer Daten hervorbrachten und weiter hervorbringen werden sowie die differenzierte Auswertung dieser Daten, die Bildungsforschung der letzten Jahre geprägt haben. Dies ging einher mit einer massiven Förderung der empirischen Bildungsforschung durch staatliche Stellen und Stiftungen. Zudem wurde im Rahmen dieser Förderung und der Rezeption der Ergebnisse der größeren Studien, die der empirischen Bildungsforschung zuzuzählen sind (unter anderem PISA, IGLU, TIMMS, DESI, NEPS[Fn 01]), der Begriff „Kompetenz” als Instrument zur Beschreibung von Lernzielen und Lernergebnissen in der öffentlichen Diskussion etabliert, wenngleich sich darüber diskutieren lässt, ob die vereinfachte und uneinheitliche Verwendung dieses Begriffes in der öffentlichen Debatte nicht dessen implizite Kritik an den Begriffen „Fähigkeit” und „Schlüsselqualifikation” negiert hat.[Fn 02]

Allerdings wäre es falsch davon auszugehen, dass die Ergebnisse und Erkenntnisse, welche von der empirischen Bildungsforschung produziert wurden, von der Bildungspolitik, der Öffentlichkeit und der pädagogischen Praxis – zur Zeit vor allem den Lehrerinnen und Lehrern an den Schulen – direkt übernommen würden. Vielmehr scheint eine sehr selektive Wahrnehmung dieser Ergebnisse stattzufinden. Kleinere Studien, insbesondere die zahlreichen Promotionsprojekte, wurden und werden fast gar nicht beachtet. Zudem wurden beim öffentlichen Rekurs auf die Schulleistungsvergleichsstudien – unter anderem auch in bibliothekarischen Debatten – teilweise die grundlegenden Fragestellungen von Studien ignoriert und die vorgelegten Daten partiell zugunsten jeweils gewünschter Aussagen durchsucht, anstatt in ihrer Gesamtheit interpretiert zu werden.

Auch aus diesem Grund hat sich als weiteres Handlungsfeld der empirischen Bildungsforschung die Rückmeldung von Ergebnissen in einer für die jeweiligen Adressatinnen und Adressaten sinnvollen Form – unter anderem der schriftlichen Kurzauswertung, mithilfe von Datenblättern, elektronischen Rückmeldeverfahren, Rückmeldegesprächen, Workshops – etabliert.[Fn 03] Jede größere Studie der empirischen Bildungsforschung plant heutzutage diese Rückmeldungen als elementaren Arbeitsschritt mit ein.[Fn 04] Insbesondere die Rückmeldungen an die einzelnen Schulen, Lehrerinnen und Lehrer stehen dabei im Vordergrund. Oft werden diese auch als Beitrag der Forschenden zur Schulentwicklung verstanden.[Fn 05]

Unter dem Fokus der Wissenschaftskommunikation haben wir es hierbei mit einem interessanten Anwendungsfall zu tun. Es geht bei diesen Ergebnisrückmeldungen nicht um die Kommunikation zwischen Forschenden, sondern um die Kommunikation von Ergebnissen einer praxisnahen Wissenschaft an die betreffende (und erforschte) Praxis. Angesichts dessen, dass die Ergebnisrückmeldungen und ihre Wirkungen zudem in den letzten Jahren zu einem eigenen Forschungsthema wurden,[Fn 06] haben wir zudem die Möglichkeit, diese Form der Wissenschaftskommunikation näher zu betrachten: Hat die Rückmeldung von Forschungsergebnissen überhaupt einen Einfluss auf die Praxis? Wenn ja, wann und welchen?

Ziele der Rückmeldungen und Annahmen über deren Wirkung

Es gibt keine einheitliche Meinung darüber, was und wie genau aus den Ergebnissen der Bildungsforschung an die Schulen zurückgemeldet werden soll. Dies hat auch damit zu tun, dass die Studien selber mit ihren Forschungsfragen auf sehr verschiedenen Ebenen ansetzen und ebenso unterschiedliche Daten erheben. Kohler & Schrader (2004) verweisen beispielsweise darauf, dass Rückmeldungen „sich zwar nicht unmittelbar in pädagogische Maßnahmen umsetzen lassen, aber doch in verschiedener Hinsicht genutzt werden können” (Kohler & Schrader, 2004, 6) und denken dabei offensichtlich vor allem an große Unternehmungen wie die PISA-Studien. Hingegen berichtet Peek (2004) darüber, dass die an der Brandenburger Studie „Qualitätsuntersuchung an Schulen zum Unterricht in Mathematik” teilnehmenden Schulen Rückmeldungen über die Ergebnisse der einzelnen Klassen erhielten und untersucht direkt die Wirkung dieses kleinteiligen Vorgehens.[Fn 07]

Immer wieder wird diskutiert, ob, in welcher Form und in welcher Intensität bei den Ergebnisrückmeldungen die Entstehungs- und Kontextvariablen mit erwähnt und erläutert werden sollen. Interessant dabei ist, dass die Entstehung der Daten – also die verwendete Methodik, die Grenzen der jeweiligen Erhebungsformen, die Konstruktion der Messinstrumente etc. – in den wissenschaftlichen Berichten der Studien allesamt enthalten sind. Ebenso stellen die Studien jeweils dar, welche Umgebungsvariablen – beispielsweise der soziale Raum von Schulen, die Ausstattung, die zusätzlichen Unterstützungsleistungen, die gesellschaftliche Position der Schülerinnen und Schüler – mit erhoben und wie diese in den Daten verarbeitet wurden. Gleichwohl scheint es für die Rückmeldungen immer nötig zu sein, diese Daten in gewisser Weise zu übersetzen, größtenteils auch zu kondensieren und graphisch darzustellen.[Fn 08]

„[Dass] die Ergebnisse auch adressatengerecht kommuniziert, d.h. den Verantwortlichen, Beteiligten und Betroffenen in einer verständlichen und für ihr Handeln bedeutsamen Weise vermittelt werden müssen, ist für Bildungsforscher in jüngerer Zeit nahezu selbstverständlich geworden. […] Alle großen Evaluationsstudien verwenden mittlerweile solche Rückmeldungen […], wenn auch mit unterschiedlichen Zielsetzungen. Während sich manche Bildungsforscher und -verantwortliche von solchen Rückmeldungen wichtige Impulse für die Schulentwicklung und das schulische Qualitätsmanagement versprechen, sehen andere darin eher ein allgemeines Serviceangebot, das als Gegenleistung für die Untersuchungsteilnahme und zur Erfüllung legitimer Informationsbedürfnisse der Betroffenen erbracht, [sic!] wird[,] ohne damit spezifische Ziele zu verbinden.” (Hosenfeld, Schrader & Helmke (2006), S. 290)

Im Interesse von fairen Vergleichen hat sich die Praxis entwickelt, Ergebnisse auch als Gegenüberstellung von Schulen oder Schulklassen zurückzumelden, welche eine ähnliche soziale Zusammensetzung und andere vergleichbare Merkmale gemeinsam haben. Hierfür ist es selbstverständlich immer notwendig, dass überhaupt genügend große Grundgesamtheiten an Daten erhoben werden. Es ist auffällig, dass damit eine „Sortierung” der Daten vorgenommen wird, die selbstverständlich immer auch mit grundsätzlichen Entscheidungen darüber, welche Kriterien für die Vergleiche herangezogen und in welcher Form diese Daten aggregiert werden, einhergehen, bevor die Daten den Schulen beziehungsweise Lehrerinnen und Lehrern übermittelt werden.

Erkenntnisse zur realen Nutzung der Rückmeldungen in Schulen

Wie erwähnt, gibt es eine schon länger betriebene Forschung zu den Wirkungen dieser Rückmeldungen oder anders ausgedrückt: über die Wirkung der Kommunikation von Wissenschaftsdaten der empirischen Bildungsforschung an die erforschten Subjekte. Selbstverständlich auf Vorarbeiten aufbauend, wird diese seit rund zehn Jahren auch in Deutschland relativ intensiv betrieben.[Fn 09]

Die Ergebnisse dieser Forschungen sind so uneinheitlich wie die Schulleistungsvergleichsstudien, es lassen sich aber einige Gemeinsamkeiten benennen. So finden sich eigentlich keine Aussagen dazu, dass Lehrkräfte oder Schulleitungen die Rückmeldungen an sich abgelehnt oder als sinnlos bezeichnet hätten. Wahrgenommen wurden die Rückmeldungen offenbar immer.[Fn 10]

Die wichtigste Erkenntnis, die sich relativ oft empirisch absichern lässt, ist, dass die zurück gelieferten Daten nahezu keinen direkten Einfluss haben.[Fn 11] Außer in den Fällen, in denen Lehrerinnen und Lehrer die Ergebnisse solcher Leistungstests zur Notengebung heranziehen dürfen – was nur in Ausnahmefällen gestattet ist, messen diese Studien doch etwas anderes, als die Curricula zumindest zur Zeit noch vorgeben – lässt sich keine direkte Verbindung zwischen zurück gelieferten Daten und Schul- und Unterrichtsentwicklung nachweisen.[Fn 12]

Allerdings finden sich auch immer wieder Hinweise darauf, dass die Rückmeldungen einen indirekten Effekt haben.[Fn 13]

Einbezogen in die Schulentwicklung oder die eigenständige Entwicklung der Lehrerinnen und Lehrer werden zurückgemeldete Daten vor allem, wenn sie als „passend” verstanden werden, Aufmerksamkeit erzeugen und gleichzeitig nicht als banale Ergebnisse, also als Aussagen, von denen die Schulen oder Lehrenden überzeugt sind, sie auch ohne Forschung treffen zu können, erscheinen. Gleichzeitig darf die Rückmeldung nicht als zu langatmig und zu wissenschaftlich erscheinen.[Fn 14] Nur weil die Daten wissenschaftlich erhoben und ausgewertet wurden, werden sie nicht positiv aufgenommen. Wissenschaftlichkeit alleine vermittelt offensichtlich keine Überzeugungskraft. Hosenfeld & Groß Ophoff (2007) benennen vier zentrale Punkte, die sich in dieser Wirkungs- und Innovationsforschung beständig herauskristallisieren:

„Zielklarheit ist eine elementare Voraussetzung [für den Erfolg von Datenerhebungen und Rückmeldungen, K.S.] […]
Klarheit bezüglich der Grenzen beugt unrealistischen Erwartungen vor. […]
Die angelegten Möglichkeiten [zurückgemeldeter Daten, K.S.] sind nicht selbsterklärend. […]
Weitere Erkenntnisse über das komplexe Zusammenwirken der unterschiedlichen Faktoren sind notwendig.” (Hosenfeld & Groß Ophoff, 2007, S. 362f.)

Maier (2008) fasst zudem zusammen, dass zurückgemeldete Daten eher als sinnvoll wahrgenommen werden, wenn den dazugehörigen Studien und Erhebungen von den Lehrkräften ein Vertrauen entgegengebracht wird. Dieses Vertrauen kann nach Maier vor allem durch eine Kontinuität der Studien, also vor allem durch regelmäßige Wiederholungen, aufgebaut werden. Interessant ist, dass ein subjektiver Wert wie „Vertrauen” für die Rezeption von Forschungsdaten relevant zu sein scheint, der sich nicht aus der wissenschaftlichen Qualität der Daten selber ergibt.

Aspekte der Wissenschaftskommunikation

Des Weiteren zeigt sich als Grenze der Wissenschaft, dass die Daten, die zurück gemeldet werden, von den Akteurinnen und Akteuren im Unterricht in den Schulverwaltungen etc. verarbeitet werden müssen, um überhaupt eine Wirkung zu entfalten. Dies ist keine banale Feststellung, sondern ein Hinweis darauf, dass die Kommunikation von wissenschaftlichem Wissen nicht autoritativ erfolgt, sondern diskursiv. Die Wissenschaft kann offenbar nicht erwarten, Lösungen und Problembeschreibungen zu liefern, die anschließend direkt in der pädagogischen oder verwaltungstechnischen Praxis umgesetzt werden. Eine Differenz zwischen den Wissensräumen – Wissenschaft, schulische Praxis, Verwaltungspraxis[Fn 15] – bleibt offenbar bestehen.

Mit dem Fokus auf die Wissenschaftskommunikation heißt dies, dass es einer Übersetzungsleistung bedarf, um diese Kommunikation erfolgreich durchzuführen. Es gibt – insbesondere von Seiten der finanzierenden politischen Akteure – den Anspruch, dass die Wissenschaft das in den Leistungsvergleichsstudien erworbene Wissen kommuniziert, ohne das die offenbar vorhandene Differenz zwischen vorhandenem wissenschaftlichen Wissen und gewünschtem Praxiswissen wahrgenommen wird.

Mit den Rückmeldungen, die explizit zum elementaren Bestandteil von Leistungsvergleichsstudien geworden sind, wird von der Bildungsforschung ein Weg gesucht, diese Differenz zu überwinden. Ob sich andere Formen der Ermöglichung von Kommunikation etablieren werden, ist immer noch nicht ausgemacht.[Fn 16]

Für Einrichtungen, die sich mit der Aufbewahrung und dem Zurverfügungstellen von Forschungsdaten beschäftigten, lässt sich ausgehend von diesem Beispiel die Frage formulieren, ob sich nicht auch eine Praxis der Wissenschaftskommunikation in die Öffentlichkeit etablieren müssten, die jeweils Übersetzungs- und Interpretationsleistungen von Wissenschaftsdaten darstellt. Im Rahmen der Schulleistungsvergleichsstudien wird diese Aufgabe von den Forschenden direkt übernommen, was zum Teil auch mit den Erwartungen der finanzierenden Stellen – also zumeist der Kultusministerien der Länder und des Bundes – und dem Selbstverständnis der Bildungsforschung als praxisnaher Wissenschaft erklärt werden kann. Für andere Wissenschaftsbereiche und -fragestellungen gelten diese Voraussetzungen nicht, was die Frage aufwirft, ob und wenn ja, wie überhaupt das wissenschaftliche Wissen anderer Professionen in die Öffentlichkeit – oder beispielsweise bei der Bibliotheks- und Informationswissenschaft in die untersuchte bibliothekarische und informationsverarbeitende Praxis – transportiert wird.


Fußnoten

[01] PISA: Programme for International Student Assessment, IGLU: Internationale Grundschul-Lese-Untersuchung, TIMMS: Third International Mathematics and Science Study, DESI: Deutsch-Englisch-Schülerleistung International, NEPS: Nationales Bildungspanel. Für eine Übersicht zu den größten Schulleistungsvergleichsstudien und den jeweils erhobenen Daten, siehe Dedering (2011). Vgl. zu den Widersprüchen zwischen Erwartungen durch die finanzierenden Institutionen und der Öffentlichkeit und dem eigenen Anspruch der Bildungsforschung zusammenfassend Meseth (2011). [zurück]

[02] Vgl. Gnahs (2009), Bohlinger (2009), Bank & Heidecke (2009). [zurück]

[03] Vgl. Kohler & Schrader (2004), Hosenfeld, Schrader & Helmke (2006). Dies beschränkt sich allerdings nicht auf Schulleistungsvergleiche. Bührmann (2009) diskutiert beispielsweise die Rückmeldung von Ergebnissen, die mithilfe von Kompetenzmessungsinstrumenten im berufsbildenden Bereich, hier besonders der individuellen Berufsbildungsplanung von Schülerinnen und Schülern, erhoben werden. [zurück]

[04] Ein weiteres Problem, dass mit diesen Rückmeldungen angegangen werden soll, ist der offenbar nachlassende Mitwirkungswille der Lehrerinnen und Lehrer, der gerade bei kleineren und spezielleren Projekten auftritt. Insbesondere die Schulen in räumlicher Nähe zu Einrichtungen der Bildungsforschung sind in den letzten Jahren schon sehr oft Ort von Forschungen – die fast immer auch einen Eingriff in den Unterricht bedeuten – geworden. Nach diesen Erfahrungen lehnen offenbar immer mehr Lehrerinnen und Lehrer eine Mitwirkung an weiteren Forschungen ab. Mit dem Versprechen, dass die Forschungen ihnen und ihrer pädagogischen Praxis direkt zugute kommen sollen, wird versucht, dass Interesse der Lehrkräfte an der Teilnahme an weiteren Forschungen zu wecken. [zurück]

[05] Vgl. Kohler & Schrader (2004), Kohler (2005), Hartung-Beck (2009). Die Veränderung der Bildungssteuerung, die mit der Verwendung der Daten der empirischen Bildungsforschung einhergeht, soll nicht Thema dieses Aufsatzes sein. Es ist aber dennoch bedeutsam, dass die Etablierung dieses Zweiges der Bildungsforschung mit einem bildungspolitischen Wandel einher ging. Vgl. zur Neuen Steuerung im Schulsystem Altrichter & Maag Merki (2010). [zurück]

[06] Diese Forschung wird zum Teil auch unternommen, um die Rückmeldungen so zu gestalten, dass sie in den Schulen eher angenommen werden. Vgl. Kohler & Schrader (2004), Schneewind (2007 a, b). Interessant ist tatsächlich, dass diese Studien zwar in großem Maße von der Bildungspolitik und -verwaltung unterstützt und zum Teil auch eingefordert werden, aber offenbar nicht im gleichen Maße in der Schulen rezipiert werden. [zurück]

[07] Ähnlich Nachtigall & Jantowski (2007), Kühle & Peek (2007), Schneewind (2007 a, b). [zurück]

[08] Vgl. Kohler & Schrader (2004), die darauf hinweisen, dass die graphische Darstellung der Schulleistungsvergleichsstudien angepasst hätte und sich praktisch das auch aus den PISA-Studien bekannte Modell von Balkendiagrammen, auf denen Mittelwerte und Streuungsmaße angezeigt werden, durchgesetzt hätte. Siehe auch Groß Ophoff, Hosenfeld & Koch (2007). [zurück]

[09] Etabliert scheint sich ein Bezugsrahmen zu haben, der als „Zyklenmodell von der Rückmeldung zur Innovation” regelmäßig abgebildet wird. (Beispielsweise in Hosenfeld, Schrader & Helmke (2006), Hosenfeld & Groß Ophoff (2007), erweitert bei Schneewind (2007 a, b).) In diesem ist die Rückmeldung von Daten als ein Schritt auf dem Weg zur Innovation bezeichnet, der allerdings nicht alleine zur Veränderung führt, sondern erst eine Reflexionsphase motivieren soll. [zurück]

[10] Vgl. Kühle & Peek (2007). Schneewind (2007 a, b) und Hartung-Beck (2009) berichten allerdings auch davon, dass Lehrerinnen und Lehrer den Erebnissen teilweise passiven Widerstand entgegensetzten, indem sie diese als irrelevant interpretierten. [zurück]

[11] Vgl. Hosenfeld & Groß Ophoff (2007), Hartung-Beck (2009), Dedering (2011). [zurück]

[12] Eventuell ist dies aber nur ein vorübergehender Effekt. Die Curricula sollen, so zumindest die Planung der meisten Schulverwaltungen, auf Kompetenzen hin orientiert werden, das heißt das, was in den Leistungsvergleichen gemessen wird und das, was in der Schule vermittelt werden soll, wird einander angenähert. Hierzu werden seit einigen Jahren Lernstandserhebungen als jeweils bundeslandweite Instrumente eingeführt. (Vgl. Kühle & Peek 2007, Maier 2008) Dies könnte es auch ermöglichen, die Daten der Studien direkter zur Bewertung der Leistungen von Schülerinnen und Schülern, Schulen sowie Lehrerinnen und Lehrern zu verwenden. Dies muss, darauf weist Koretz (2011) immer wieder auf Grundlage der Erfahrungen aus den USA hin, nicht unbedingt positiv bewertet werden. [zurück]

[13] Vgl. Kohler (2005), Nachtigall & Jantowski (2007), Schneewind (2007 a, b). [zurück]

[14] „Kritisch äußerten sich die Lehrkräfte vor allem zu den statistischen Begriffen wie Mittelwert, N und Standardabweichung. Da diese Fachbegriffe im Alltag der Lehrkräfte keine Rolle spielen, wäre die Verwendung der Begriffe 'Durchschnitt', 'Schulkinder, die teilgenommen haben', 'Homogenität bzw. Heterogenität der Klasse' für die Lehrkräfte verständlicher.” (Schneewind, 2007, S. 376f.) Vgl. auch Hosenfeld, Schrader & Helmke (2006), die betonen, dass die Wissenschaft eine Rückmeldung leisten kann, aber die Motivation zur Umgestaltung von Schule und / oder Unterricht aus der Schule beziehungsweise von den Lehrenden selber kommen muss. Hier kann die Wissenschaft Beratungsleistungen anbieten. Außerdem wird auf das interessante Problem verwiesen, dass die Schulen mit möglichst aktuellen Daten arbeiten wollen, während die wissenschaftliche Auswertung der Daten oft einige Monate in Anspruch nimmt, was durch eine schnellstmögliche Rückmeldung von Daten, auch vor der endgültigen wissenschaftlichen Auswertung erreicht werden soll. [zurück]

[15] Auch diese Räume wären in einer genaueren Analyse weiter zu differenzieren – beispielsweise in den Raum der empirischen Bildungsforschung und den der kritisch-diskursiven Bildungsforschung – oder auch zu ergänzen – beispielsweise um die zivilen Öffentlichkeit, die Medienöffentlichkeit oder die politische Sphäre – sowie im Rahmen internationaler Wissensräume zu verorten. [zurück]

[16] Verwiesen sei hier auf die Vorhersage, die in der Diskussion um den „Mode 2” der Wissenschaftskommunikation getroffen wurde, dass sich an den Rändern des Wissenschaftsbetriebes institutionelle Akteure etablieren werden, welche sich hauptsächlich mit eben dieser Übersetzung wissenschaftlichen Wissens in die Praxis beschäftigen würden. Vgl. Gibbons et al. (1994), Nowotny, Scott & Gibbons (2001). [zurück]


Literatur

Altrichter, Herbert & Maag Merki, Katharina (2010). Handbuch Neue Steuerung im Schulsystem (Educational Governance, Band 7). Wiesbaden, VS.

Bank, Volker & Heidecke, Björn (2009). Gegenwind für PISA. Ein systematisierender Überblick über kritische Schriften zur internationalen Vergleichsmessung. In: Zeitschrift für wissenschaftliche Pädagogik 85 (2009) 3, 361-372.

Bohlinger, Sandra (2009). Die Rolle von Qualifikationen und Kompetenzen in der europäischen Bildungspolitik. In: Der pädagogische Blick 17 (2009) 3, S. 168-181.

Bührman, Thorsten (2009). Kompetenzbilanzierung in pädagogischen Prozessen. Hintergründe, Verfahren, Potenziale und Grenzen. In: Der pädagogische Blick 17 (2009) 3, 132-146.

Dedering, Kathrin (2011). Hat Feedback eine positive Wirkung? Zur Verarbeitung extern erhobener Leistungsdaten in Schulen. In: Unterrichtswissenschaft 39 (2011) 1, 63-83.

Gibbons, Michael, Limoges, Camille, Nowotny, Helga, Scott, Peter, Schwartzman, Simon & Trow, Martin (1994). The New Production of Knowledge. The Dynamics of Science and research in Contemporary Societies. London: Sage.

Groß Ophoff, Jana, Hosenfeld, Ingmar & Koch, Ursula (2007). Formen der Ergebnisrezeption und damit verbundene Schul- und Unterrichtsentwicklung. In: Empirische Pädagogik 21 (2007) 4, 411-427

.

Hosenfeld, Ingmar & Groß Ophoff, Jana (2007). Nutzung und Nutzen von Evaluationsstudien in Schule und Unterricht. In: Empirische Pädagogik 21 (2007) 4, 352-367.

Hosenfeld, Ingmar, Schrader, Friedrich-Wilhelm & Helmke, Tuyet (2006) Von der Rezeption zur Ergebnisrückmeldung. Leistungsevaluation im Spannungsfeld von System-Monitoring und Schulentwicklung. In: Hosenfeld, Ingmar & Schrader, Friedrich-Wilhelm (Hrsg.) Schulische Leistung. Grundlagen, Bedingungen, Perspektiven. Münster u.a.: Waxmann, 2006, 289-313.

Gnahs, Dieter (2009). Kompetenzmessung als praktisches Problem pädagogischen Handelns. In: Der pädagogische Blick 17 (2009) 3, 147-156.

Hartung-Beck, Viola (2009). Schulische Organisationsentwicklung und Professionalisierung. Folgen von Lernstandserhebungen an Gesamtschulen. Wiesbaden: VS.

Kohler, Britta (2005). Rezeption internationaler Schulleistungsstudien (Pädagogische Psychologie und Entwicklungspsychologie, Band 46). Münster: Waxmann.

Kohler, Britta & Schrader, Friedrich-Wilhelm (2004). Ergebnisrückmeldung und Rezeption: Von der externen Evaluation zur Entwicklung von Schulen und Unterricht. In: Empirische Pädagogik 18 (2004) 1, 3-17.

Koretz, Daniel (2011). Lessons from test-based education reform in the U.S. In: Zeitschrift für Erziehungswissenschaft, Sonderheft 13 14 (2011), 9-23.

Kühle, Ben & Peek, Rainer (2007). Lernstandserhebungen in Nordrhein-Westfalen. Evaluationsbefunde zur Rezeption und zum Umgang mit Ergebnisrückmeldungen in Schulen. In: Empirische Pädagogik 21 (2007) 4, 428-447.

Maier, Uwe (2008). Vergleichsarbeiten im Vergleich. Akzeptanz und wahrgenommer Nutzen standardbasierter Leistungsmessungen in Baden-Württemberg und Thüringen. In: Zeitschrift für Erziehungswissenschaft 11 (2008) 3, 453-474.

Meseth, Wolfgang. (2011). Erziehungswissenschaftliche Forschung zwischen Zweck- und Wertrationalität. Überlegungen zum Normativitätsproblem der empirischen Unterrichtsforschung. In: Zeitschrift für Soziologie der Erziehung und Sozialisation 31 (2011) 1, 12-27.

Nachtigall, Christof & Jantowski, Andreas (2007). Die Thüringer Kompetenztests unter besonderer Berücksichtigung der Evaluationsergebnisse zum Rezeptionsverhalten. In: Empirische Pädagogik 21 (2007) 4, 401-410

Nowotny, Helga, Scott, Peter & Gibbons, Michael (2001). Re-Thinking Science: Knowlegde and the Public in an Age of Uncertainty. Cambridge: Polity Press.

Peek, Rainer (2004). Qualitätsuntersuchung an Schulen zum Unterricht in Mathematik (QuaSUM) – Klassenbezogene Ergebnisrückmeldungen und Rezeption in Brandenburger Schulen. In: Empirische Pädagogik 18 (2004) 1, 82-114.

Schneewind, Julia (2007a). Erfahrungen mit Ergebnisrückmeldungen im Projekt BeLesen – Ergebnisse der Interviewstudie. In: Empirische Pädagogik 21 (2007) 4, 368-382.

Schneewind, Julia (2007b). Wie Lehrkräfte mit Ergebnisrückmeldungen aus Schulleistungsstudien umgehen. Ergebnisse aus Befragungen mit Berliner Grundschullehrerinnen (Digitale Dissertation). Berlin: Freie Universität Berlin, Fachbereich Erziehungswissenschaft und Psychologie. (http://www.diss.fu-berlin.de/2007/252/index.html)

Schwippert, Knut (2004). Leistungsrückmeldungen an Grundschulen im Rahmen der Internationalen Grundschul-Lese-Untersuchung (IGLU). In: Empirische Pädagogik 21 (2004) 1, 62-81.

Watermann, Rainer & Stanat, Petra (2004). Schulrückmeldungen in PISA 2000. Sozialnorm- und kriteriumsorientierte Rückmeldeverfahren. In: Empirische Pädagogik 18 (2004) 1, 40-61.


Karsten Schuldt Wissenschaftlicher Mitarbeiter am Interdisziplinären Zentrum für Bildungsforschung, Humboldt Universität zu Berlin; Lehraufträge Fachhochschule Potsdam; http://bildungundgutesleben.blogsome.com