Table.Briefing: Bildung

Lernlücken-Spezial: Unmut der Bildungsforscher über die KMK + Bürgerrechtler drohen mit Klage + Axel Plünnecke + Timo Off

  • Bildung.Table-Spezial über den Verbleib der Vera-Daten
  • Angebot von Simpleclub: Lernstandserhebung binnen Wochen
  • Blogpost I: Axel Plünnecke – “Nie waren Daten so wertvoll”
  • Blogpost II: Timo Off – “Vera gehört zerschlagen”
  • Bürgerrechtler verklagen Kultusminister
Liebe Leserin, lieber Leser,

nach Fußballspielen nutzen Experten gerne Heatmaps, um das Spiel noch einmal zu durchleuchten. Rote und gelbe Flecken zeigen dann, in welchem Areal die meisten Angriffe gestartet wurden – und wo wenig los war. Welcher Spieler wie oft den Ball berührte, erfährt man schon während des Spiels. 

Was hat das mit den Schulen nach der Pandemie zu tun? Leider nichts. Denn selbst in der größten Krise des Bildungssystems seit dem Zweiten Weltkrieg gibt es für Schulen keine Heatmaps. Wir können nur ahnen, wo die Problemschulen sind, wer Lernlücken hat und wie man also Schülerinnen und Schülern helfen könnte. Die Kultusminister erheben zwar Daten mittels der “Vera”-Vergleichsarbeiten. Aber sie tun es unregelmäßig – und wenn sie es tun, verstecken sie die Ergebnisse häufig vor den Bürgern. 

Die Schulminister sind im Blindflug, sagen renommierte Wissenschaftler. Und weil aus vereinzelten Stimmen ein Chor des Protests gegen die Geheimpolitik der Schulminister geworden ist, haben wir uns entschlossen ein “Vera”-Spezial herauszubringen. Ausnahmsweise können Sie also am Wochenende in Ruhe einen neuen Bildung.Table studieren – auch wenn Teile dieser Ausgabe Sie beunruhigen könnten. 

Wir berichten ihnen exklusiv vom Unmut der Wissenschaftlerinnen über die KMK – und verraten, warum er kein Zufall ist. Die Kultusminister haben das nationale “Institut zur Qualitätsentwicklung im Bildungswesen” von Anfang zu einer Behörde gemacht, die ihrem Willen zu folgen hat. Dabei gäbe es eine simple Lösung, einen präzisen und schnellen Kompetenztest für die Bildungsrepublik zu machen – nämlich digital. Es steht alles bereit. Die Bundesbildungsministerin müsste nur zugreifen. 

Zwei Blogposts klären uns tiefer auf: Der Bildungsökonom Axel Plünnecke erläutert, warum die Lernstandserhebung Vera essenziell für den Bildungsaufstieg vieler sein wird. Der Schulleiter und Vera-Experte Timo Off schildert, wie sich die Länder die Vergleichsarbeiten untertan gemacht haben. Und wir zeigen, wie eine Bürgerrechtsorganisation die Schulminister mit juristischen Mitteln ins Jahrhundert der Daten zwingen will.
Ich wünsche Ihnen ein schönes Wochenende!

Ihr
Christian Füller
Bild von Christian  Füller

Analyse

Der Datenkampf

Die Forschung ist schon lange auf den Barrikaden gegen die Geheimhaltungspolitik der Kultusminister. Doch jetzt, nach dem möglichen Ende der Pandemie, reißt vielen Wissenschaftlern der Geduldsfaden. “Wir wissen zu wenig über unser Bildungssystem”, sagt etwa Kerstin Schneider vom Wuppertaler Institut für bildungsökonomische Forschung. “Es muss jetzt gehandelt werden“, fordert sie von den Ländern. Schneider will, dass die Kultusminister die Daten der sogenannten “Vergleichsarbeiten” der Forschung zur Verfügung zu stellen. “Lernstandserhebungen wie die Vergleichsarbeit Vera haben ein großes Potential für die Analyse und Steuerung von Bildungssystemen, denn sie erfassen die Kompetenzen aller Schüler:innen”, sagt sie. 

Kerstin Schneider gehört dem “Rat für Sozial- und Wirtschaftsdaten” an, der die Bundesregierung berät. Sie ist nicht die einzige KMK-Kritikerin. Es wirkt wie ein Aufstand der Empirie gegen die Aktion Giftschrank der Schulminister, der sich da gerade aufbaut. Bildungsökonomen, Germanisten, Nachwuchsforscher, sie alle fordern: rückt die Daten raus! 

Forscher: “Rückt die Daten raus”

Auslöser des Unmuts ist, dass die Länder während der Pandemie Kompetenztests in den Schulen vornehmen ließen – die Ergebnisse aber oft nicht veröffentlichen wollen. Das bringt die Forscher auf. Aber nicht nur sie fragen sich: Wie kann die KMK glauben, im Zeitalter der Datafizierung Informationen über öffentliche Schulen zur Verschlusssache zu erklären? Zumal längst mächtige digitale Analyseinstrumente zur Verfügung stehen. Wie lange werden die großen Startups dem Drei-Affen-Prinzip der Kultusminister noch zuschauen? 

Die Forscher haben ihr langes Schweigen nach der Freischaltung der Webseite Wo-ist-Vera? gebrochen, wo die Open Knowledge Foundation die von den Kultusministern herausgepaukten Daten veröffentlicht. (Siehe News) “Bereits erhobene Tests aus dem Jahr 2020 sollten vollständig veröffentlicht werden, damit wir schnell ein Bild vom postpandemischen Lernstand bekommen”, schreibt Axel Plünnecke vom Institut der Deutschen Wirtschaft in dieser Ausgabe. (Siehe Blogpost) 

Es sind freilich nicht allein Bildungsökonomen, die Wert darauf legen, dass einerseits die Forschungsfreiheit gewahrt wird und andererseits die Lernlücken exakt und schnell erhoben werden. “Gerade weil wir für Deutschland erst wenige Studien zur Leistungsentwicklung während Corona haben, ist eine rasche Ergänzung von Daten sehr wünschenswert”, sagt Sebastian Susteck. Der Germanistikprofessor an der Ruhr-Uni Bochum weiß, dass die Erhebung der Vergleichsarbeiten der Klassen 3 und 8 in den Ländern extrem unterschiedlich gehandhabt wird. (Siehe Blogpost Timo Off) Aber auch er findet: die Nebelstocherei muss ein Ende haben. “Falls die Bundesländer über unveröffentlichte Daten verfügen, wäre es gut, wenn diese in Anbetracht der besonderen Lage zur Verfügung gestellt oder für transparente Vergleichsstudien genutzt würden, die die Öffentlichkeit rasch erreichen.”

Lange Wartezeiten auf Datenzugriffe

Dass es massenhaft wertvolle Daten in den Bundesländern gibt, daran kann kein Zweifel bestehen. Der junge Bildungsökonom Maximilian Bach vom ZEW Mannheim weiß davon ein Lied zu singen. Er wollte bereits mehrfach auf die Daten zugreifen und musste dann erfahren, wer sich als Eigentümer der Daten sieht: die Kultusbürokratie. Was er nicht gelten lässt, ist die Argumentation mancher Beamter. Die Vera-Daten seien, erstens, nicht dazu da, Lernlücken aufzuspüren. Und sie seien, zweitens, dazu auch gar nicht geeignet. Bach sagt, das Gegenteil sei richtig. Man sei auf die Vera-Daten angewiesen, um den postpandemischen Lernstand zu ermitteln. “Die Veratests nämlich sind der einzige jährlich erhobene Kompetenz-Messwert für nahezu alle Schülerinnen und Schüler der 3. und 8. Klassenstufe in Deutschland”, erklärt Bach. “Andere Schulleistungsstudien wie Pisa oder der IQB-Bildungstrend finden in einem drei- oder gar fünfjährigen Zyklus statt. Damit fehlen für ein so einschneidendes Ereignis wie die Corona-Epidemie zeitlich naheliegende Vergleichspunkte.”

Der renommierte Bildungsökonom Ludger Wößmann vom Ifo-Institut in München ist wohl der härteste Gegner des Datenversteckspiels der Länder. Wößmann hat erlebt, dass Doktoranden acht bis zehn Monate warten mussten, ehe ihnen das IQB in Berlin den Zugang zu den Daten verweigerte. In den Augen des Bildungsforschers, der schon Offene Briefe und Gutachten gegen das Datenverstecken schrieb, ein Skandal. Die Pandemie hat Wößmann nicht milder werden lassen. “Ich spreche mich sehr für Datenverfügbarkeit aus”, sagt er. “Gerade jetzt nach Corona wäre es so wichtig zu wissen, wo die Schülerinnen und Schüler stehen.”

Wößmann rennt schon seit Jahren gegen die Metternich’sche Zensurpolitik der Schulminister an. Er weiß, dass die Gründung des IQB in Berlin im Grunde den kurzen Frühling der Pisa-Empirie konterkarierte. Zunächst hatten die KMK die Einführung der damals neuartigen Pisastudien als den Anfang evidenzbasierter Bildungspolitik gefeiert. Als die ersten Pisa-Studien 2001 und 2004 erschienen, zerriss der rosarote Dichter-und-Denker-Vorhang vor dem deutschen Schulsystem. Plötzlich wurden Risikoschüler und funktionale Analphabeten als Helden im Schultheater sichtbar. Und der Pisa-Boss der OECD, der ehemalige Waldorfschüler Andreas Schleicher, hielt den Kultusministern den Spiegel vor, in dem sie eine Schule sahen, die sie nicht mochten: leistungsschwach, ungerecht und ungleich. 

Das IQB darf Vera nicht auswerten

Schnell begannen die Kultusminister gegen Mister Pisa zu stänkern. Als das nicht fruchtete, stiegen sie kurzerhand aus den Pisa-Sonderstudien für Deutschland aus – und gründeten ein eigenes Institut, das “Institut zur Qualitätsentwicklung im Bildungswesen”. Dem IQB war eines von Anfang an gewissermaßen bei Strafe verboten: Ländervergleiche. Daher rührt die absurde Arbeitsteilung bei den Vera-Vergleichsarbeiten. Das IQB entwirft wissenschaftlich hochwertige Fragebögen (Testhefte), verteilt sie an die Länder – und bekommt nichts zurück. Jedes Land wertet nur für sich aus, denn sonst könnte im IQB ja vielleicht eines der berüchtigten Länder-Rankings angefertigt werden, die man an Pisa immer so hasste. Spricht man mit IQB-Leuten über dieses per KMK-Beschluss besiegelte Kontakt- und Auswertungsverbot, werden sie sehr nachdenklich – und schweigsam. “Bitte nicht zitieren”, ist der einzige zitierfähige Satz, der aus solchen Gesprächen tröpfelt. 

Aber kann man eine derart mittelalterlich anmutende Datenpolitik im beginnenden Zeitalter der Datafizierung der Schulen durchhalten? In den letzten 14 Monaten haben sich Schulclouds und Lernmanagementsysteme in Windeseile über die Schulen verbreitet. Ihr wichtigstes Merkmal sind: Daten. Die werden jetzt massenhaft anfallen – und damit bricht ein neues Zeitalter an den Schulen an, sozusagen das der Post-Daten-Hoheit der Kultusminister. Diese Ära wartet nicht mehr, sie klopft schon an die Tür – auch bei den Lernstandserhebungen.

Das Startup “Simpleclub” behauptet nämlich, Vera hin oder her, eine schnelle, einfache und sehr präzise Auskunft über den Lernstand der Schüler geben zu können. Die beiden Gründer Alexander Gieseke und Nico Schork hatten dem Bundesbildungsministerium bereits vor Wochen angeboten, eine Lernstandserhebung digital vorzunehmen. Simpleclub hat rund eine Million Nutzerinnen, daraus ließe sich eine repräsentative Stichprobe ziehen. Dann könnte man mithilfe von Pisa- oder Vera-Kompetenzfragen den aktuellen Lernstand der Schülerinnen und Schüler messen. “Lernstandsermittlung ist etwas, das wir jeden Tag machen”, sagt Miteigentümer Giesecke zu Bildung.Table. “Mit unserer Technologie sind wir in der Lage, den aktuellen Lernstand von hunderttausenden Schülerinnen und Schülern zu erfassen und die erhobenen Daten automatisiert in kurzer Zeit auszuwerten.

10.000 Lernstände binnen einer Woche

Simpleclub hat inzwischen Gespräche sowohl mit dem ifo-Institut in München sowie mit dem Leibniz-Institut für Bildungsverläufe in Bamberg über eine mögliche Kooperation geführt. Die Leiterin des renommierten Bamberger Instituts, Cordula Artelt, hatte sich deswegen sogar persönlich an Giesecke und Schork gewandt. Die beiden Ex-Youtuber sagen, dass sie für eine Lernstandserhebung zusammen mit der Forschung sofort bereit seien. “Wir könnten innerhalb einer Woche eine fünfstellige Zahl an Schülerinnen und Schülern eines oder mehrerer Jahrgänge in verschiedenen Kompetenzbereichen testen und die ausgewerteten Daten unmittelbar aufbereiten und zur Verfügung stellen.” Die Auswahl der Teilnehmer müsse natürlich mit Hilfe der Wissenschaft repräsentativ erfolgen. 

Bundesbildungsministerin Anja Karliczek (CDU) hat offiziell bisher nicht auf das Angebot reagiert. Ihr Ministerium zeigte sich auf Anfrage interessiert an einer Erhebung. “Eine verlässliche Datengrundlage für eventuell aufgetretene Lernlücken wäre begrüßenswert”, sagte eine Sprecherin. “Die bisherigen für Deutschland oder einzelne Bundesländer veröffentlichten Studien bieten kein ausreichendes Bild.” Gleichzeitig ließ die Ministerin einem Alleingang durch den Bund etwa mit Simpleclub eine Absage erteilen – zunächst. “Eine Erhebung von Daten ohne Abstimmung mit den Ländern ist nicht das Ziel des Bundes”.

Was die Bundesbildungsministerin hier mitteilt, ist so etwas eine Gnadenfrist – für die KMK und das IQB. Der Bund ist zuständig fürs Bildungsmonitoring. Bisher musste er stets die Länder fragen, um in den Schulen Daten zu erheben. Mit dem Angebot von Simpleclub ist diese Veto-Möglichkeit der Länder verwirkt. Das bedeutet, Simpleclub könnte zusammen mit Anja Karliczek, dem Ifo-Institut und in Abstimmung mit dem Datenschutz Kompetenztests bei Schülern vornehmen – ohne auch nur einen Fuß in die Schulen zu setzen.

Vielleicht sollten die Kultusminister nochmal nachdenken, ehe sie Nein sagen, wenn jemand Daten von ihnen will. Sonst greift man auf anderem Weg nach den Daten.

Mehr zum Thema

    • Bildungsmonitoring
    • Bildungspolitik
    • Digitalisierung
    • Gesundheit
    • IQB
    • KMK
    • Open Knowledge Foundation
    • Vera

    Blogpost

    “Vera-Daten so wertvoll wie nie”

    Auf dem Foto ist Axel Plünnecke zu sehen, er leitet das Kompetenzfeld Bildung, Zuwanderung und Innovation des Instituts der deutschen Wirtschaft: Vera-Daten sind so wertvoll wie nie
    Axel Plünnecke leitet das Kompetenzfeld Bildung, Zuwanderung und Innovation des Instituts der deutschen Wirtschaft.

    Ein Gastbeitrag von Axel Plünnecke

    In normalen Zeiten entwickelt sich das für die Lernprozesse der Schülerinnen und Schüler relevante Umfeld von Schulen nur in geringem Maße. Bis Anfang 2020 wurden Lernzeiten durch den Ausbau der frühkindlichen Bildung und Ganztagsangebote zwar ausgeweitet. Trotz der Digitalisierung oder neuer pädagogischer Konzepten gab es aber bis dahin relativ wenig Veränderungen etwa im Unterricht der Schulen. Kein Wunder also, dass die Kompetenzentwicklung der Lernenden über einen längeren Zeitraum hinweg fast stabil blieb. Die bei “Pisa 2000” erstmals dokumentierten Leistungslücken und Ungleichheiten haben sich nicht einschneidend verbessert, wenn man sich die gemessenen Ergebnisse des internationalen Vergleichstests oder auch des “Bildungstrends” des nationalen Berliner Messinstituts IQB ansieht.

    Eine völlig andere Situation ist mit dem März 2020 eingetreten. Im Zuge der Pandemie-bedingten Schließungen mussten Schulen praktisch über Nacht im Zeitumfang von mehreren Monaten auf digitalgestützten Distanzunterricht umsteigen. Erste empirische Befunde aus anderen Ländern zeigen, dass dort größere Lernlücken entstanden sind, die sich nach Altersjahrgängen (Jüngere waren stärker betroffen als Ältere), Kompetenzbereichen (Mathematik stärker betroffen als Lesen), sozioökonomischen Faktoren (Ärmere stärker betroffen als Reichere) und weiteren Aspekten (Leistungsschwächere stärker betroffen als Leistungsstärkere) unterscheiden. Selbst die Leistungen der Schülerinnen und Schüler mit gleichen Merkmalen streuen dabei sehr stark. Befragungen von Lehrkräften zeigen in Deutschland ferner, dass die Schulen sehr unterschiedlich auf den digitalen Fernunterricht vorbereitet waren. Größere Unterschiede und Anpassungsschwierigkeiten waren sogar noch im Frühjahr 2021 festzustellen. 

    Wie in einem Blindflug

    Insgesamt wird seitens der Bildungspolitik festgestellt, dass größere Lernlücken entstanden sein dürften. Ein bundesweites Aufholprogramm im Umfang von zwei Milliarden Euro zur Schließung der Lernlücken wurde verabschiedet – eine Milliarde für Nachhilfe, eine Milliarde für sozialpädagogische Maßnahmen und Mentoring-Programme. Regional wollen die Länder das Nachhilfe-Programm in unterschiedlicher Form und Umfang ergänzen. Bei der Umsetzung wird jedoch wie in einem Blindflug vorgegangen. Es existieren keine Daten zu tatsächlich entstandenen Lücken, die nach Schulen, Schülergruppen, Kompetenzbereichen, Jahrgängen, Leistungsstand und weiteren sozioökonomischen Faktoren der Schülerinnen und Schüler differenziert werden könnten. Medizinisch gesprochen: Die Anamnese fehlt. 

    Die beinahe alleinige Verantwortung tragen erneut die Lehrkräfte und Schulleiter. Sie können die Lücken zwar im Unterricht in Teilen beobachten – aber nicht systematisch in den genannten relevanten Kategorien einordnen und vergleichen. Daher wäre es eher Zufall als systematische Steuerung, wenn die Fördermilliarden tatsächlich dort gezielt ankommen würden, wo die Lücken am größten und Bildungschancen am stärksten eingebrochen sind.

    Ein Bild des postpandemischen Lernstands

    Um diese zusätzlichen Förderangebote sinnvoll planen und inhaltlich gestalten zu können, müsste also zunächst systematisch festgestellt werden: Wie hoch sind die Lernverluste durch die Schulschließungen in den einzelnen Jahrgängen wirklich? In welchen Bereichen treten sie auf? Hierzu sollten Lernstandserhebungen wie Vera oder anderer Tests an allen Jahrgängen an allen Schulen durchgeführt werden. Und bereits erhobene Tests aus dem Jahr 2020 sollten vollständig veröffentlicht werden, damit wir schnell ein Bild vom postpandemischen Lernstand bekommen. 

    Um bei der Förderung nicht im Blindflug unterwegs zu sein und wirklich gezielt und effektiv fördern zu können, sollten die Vergleichstests erheben:

    • Welche Schülergruppen an welchen Schulen wurden besonders stark in welchen Kompetenzbereichen betroffen? Es muss vermieden werden, dass Fördermittel an Schüler und Schulen ohne Lernlücken fließen, während die Mehrbedarfe bei Schülerinnen und Schülern und an Schulen mit großen Lücken nicht in ausreichendem Maße gedeckt werden können.
    • Welchen Schulen gelang es bei vergleichbaren sozioökonomischen Merkmalen der Schülerinnen und Schüler gut, Lernlücken zu vermeiden? Welche Lernstrategien haben diese Schulen während der Schulschließungen und in den Präsenzphasen danach eingesetzt? Hieraus können Konzepte abgeleitet werden, wie bei eventuell erneut notwendigen Einschränkungen des Schulbetriebs am besten vorgegangen werden sollte.
    • Wie gut ist der Lernstand heute und wie entwickeln sich die Kompetenzen bei den Schülerinnen und Schülern, an den Schulen und in den Bundesländern durch die von den Ländern entwickelten Förderkonzepten für den Sommer 2021 und folgende Monate des nächsten Schuljahres? Nur so ist eine Evaluation und Weiterentwicklung der Förderprogramme möglich, um Lernlücken bestmöglich schließen zu können.

    Wichtig wäre es also, dass neben den Kompetenzen der Schülerinnen und Schüler noch weitere Merkmale wie der familiäre Hintergrund (Bildungsstand der Eltern, Migrationshintergrund, Wohnsituation, Verfügbarkeit eines eigenen digitalen Endgeräts, eigener ruhiger Arbeitsplatz), die Organisation des Distanzunterrichts (Online-Unterricht, Lern-Plattform, Zusendung von Materialien, Art des Unterrichts) und durchgeführte Fördermaßnahmen an den Schulen erhoben werden. Das bedeutet, dass endlich der Schülerkerndatensatz mit den Ergebnissen der Kompetenztests verknüpft werden kann. 

    Vera-Tests: nicht gemacht oder nicht veröffentlicht

    Diese Tests wurden leider häufig nicht durchgeführt oder veröffentlicht. Ob das Milliarden-Hilfsprogramm deutlich zu klein ist oder nicht, ob es die richtige Zielgruppe in der richtigen Art und Weise erreicht und wie es effektiv weiterentwickelt werden sollte, bleibt also ungewiss. Noch schlimmer – die wenigen vorliegenden, wenn auch vielleicht von einem größeren Auslesebias betroffenen Vera-Daten, werden nicht systematisch wissenschaftlich ausgewertet. Durch eine statistische Bereinigung der unterschiedlichen Teilnahmequoten von Schulen mit unterschiedlichen Problemlagen könnte man sich den oben genannten Fragen zumindest in kleineren Ausschnitten annähern. 

    Dass selbst die notwendige Diskussion zu diesen Daten unterbleibt, ist in meinen Augen besonders traurig, denn noch nie war eine aktuelle Datenlage zur gezielten Sicherung der Zukunftschancen aller Schülerinnen und Schüler so wichtig wie heute. Wer Bildungsaufstieg auch nach der Pandemie möglich machen will, der braucht schnell ein genaues Bild davon, wer in den zurückliegenden 14 Monaten den Anschluss verloren hat. 

    Professor Axel Plünnecke leitet das Kompetenzfeld Bildung, Zuwanderung und Innovation des Instituts der deutschen Wirtschaft (IW) in Köln.

    Mehr zum Thema

      • Bildungsmonitoring
      • Bildungspolitik
      • IQB
      • Lernlücken
      • Pisa
      • Vera

      “Vera gehört zerschlagen”

      Timo Off ist Schulleiter der Gemeinschaftsschule Nortorf und sagt Vera den Kampf an.
      Timo Off ist Schulleiter der Gemeinschaftsschule Nortorf.

      Ein Gastbeitrag von Timo Off

      “Vera” oder genauer, die “VERgleichsArbeit” für jährliche Kompetenztests von Schüler:innen, erblickte vor 15 Jahren das Licht der Welt. Zunächst als “Vera 3” für die dritten Klassen, dann mal kurz “Vera 4” für die Vierte, dann Vera 8, dann in Teilen Vera 6. Mal freiwillig, mal vollständig verpflichtend – aber nicht in allen Fächern. Nun wird es in fast allen Bundesländern umgesetzt, nur Niedersachsen nimmt gar nicht mehr teil. 

      Die Aufgabenentwickler stellen für jedes Fach unterschiedliche Testheftvarianten bereit, die sich teilweise überlappen. Jedes Bundesland entscheidet selbst, welche Varianten es wie einsetzt oder sogar lokal anpasst. Es ist so verwirrend, wie es sich liest. Der Chor aus 16 Bundesländern, dem koordinierenden, aber machtlosen “Institut zur Qualitätsentwicklung im Bildungswesen” (IQB) in Berlin und der Konferenz der Kultusminister (KMK) ist vielstimmig. Kein Dirigent vermochte diese Gruppe bislang auf eine gemeinsame Melodie zu einen. 

      Vera als Kontrolle empfunden

      Nehmen wir Schleswig-Holstein. Dort wurden zunächst sogenannte Parallelarbeiten eingeführt: In jedem Jahrgang schreibt man gemeinsam eine Arbeit. Von Kolleg:innen entwickelt. Um das Gespräch über Unterricht zu fördern. Um gemeinsame Bewertungsgrundlagen festzulegen und sich über Inhalte und Methoden auszutauschen. Was für sinnvolle Ideen! Kurze Zeit später wurden dann bundesweit Vergleichsarbeiten (Vera) für den dritten Jahrgang erfunden. Dabei sollten die Arbeiten ans Land gesandt werden: “Um allgemeine Entwicklungen in einem Land bzw. länderübergreifend beschreiben zu können, werden die Ergebnisse von ca. 10 Prozent aller Grundschulen in Schleswig-Holstein zentral erfasst und einer Analyse unterzogen.” (Vera Erlass SH 2006)

      Leider vermischte man in weiteren Gesetzestexten sprachlich die Einführung der beiden Diagnoseinstrumente, sodass die Kollegien die Parallel- und die Vergleichsarbeiten synonym verwendeten. Die Bitte um Einsendung, um landesweite Entwicklungen beschreiben zu können, wurden zudem als Kontrolle empfunden.

      Vera fehlt der Fokus

      Im Anschluss dann folgten “Vera 8” Mathematik, dann Deutsch, Englisch, schließlich noch in wenigen Ländern Vera 6. Die Dateneingabe wurde länderübergreifend organisiert. Beteiligte Lehrkräfte sollten die Ergebnisse auf Datenplattformen übertragen – was niemand schätzte. Die Auswertung erfolgte jedoch immer strikt bundeslandbezogen. Denn die Aufgabenentwickler stellten ja unterschiedliche Testheftvarianten bereit und auch die an die Lehrkräfte zurückgemeldeten Daten unterscheiden sich 16-fach. So waren und sind die Ergebnisse eigentlich nie bundeslandübergreifend zu interpretieren.

      Vera hat keinen klaren Fokus. Was will Vera? Will Vera Leistungsdaten der Bundesländer im Vergleich aufzeigen? Dann sollte es mit Testleitern durchgeführt werden. Nur dann herrschten überall gleiche Bedingungen. Dies kann sich aber nur ein Stadtstaat wie Hamburg leisten. In einem Flächenland wäre dies nicht umzusetzen. Zudem gibt es ja bereits einen Ländervergleich, vorgenommen durch das IQB. Dieser Vergleich könnte, wie es sich die Open Knowledge Foundation wünscht, über “den Erfolg bildungspolitischer Maßnahmen” Aussagen treffen – viel besser und genauer als der Vera-Test.

      Oder soll Vera das jeweilige Bundesland untersuchen? Auch hierfür ließen sich die Aufgaben verwenden – wenn man denn erläutern würde, dass genau dies der Zweck der Erhebung sein soll. Post aus dem Ministerium: “Wir wollen wissen, wie unsere Schulen dastehen. Daher findet am Tag XY ein Test statt. Überall zur gleichen Zeit, überall dieselben Aufgaben. Die Ergebnisse werden zentral eingeben und Schulaufsicht wird die Daten nutzen, um im Anschluss über Förderprogramme für Schulen zu befinden.” Solche High-Stake-Tests gibt es in Deutschland nicht, anders als in den USA. Hier herrscht einfach eine andere Kultur. Daher findet die Übergabe der Daten an die Schulaufsicht eher verschämt statt. 

      Mit Vera auf Schulebene die Unterrichtsentwicklung zu fördern, das ist eines der offiziell ausgegeben Ziele. Hier wären dann die Schulleitungen und Koordinatoren gefordert. Wie kommt man bei jährlich wechselnden Aufgaben, Lehrkräften und Schülerschaften zu sinnvollen Vergleichen? Wie kann man die Vera-Werte des letzten Jahrgangs angemessen zu denen des aktuellen Jahrgangs ins Verhältnis setzen? Was wäre eigentlich eine signifikante Verbesserung? Es bleibt Aufgabe der Schulleitung hier unglaublich behutsam, nicht zu vorschnell urteilend und umsichtig Schlüsse zu ziehen.

      Der Begriff “Vera” ist bei Lehrer:innen verbrannt

      An dieser Stelle zeigt sich die oben beschriebene begriffliche Schwierigkeit in der Einführung. Da den Lehrkräften vor Ort nicht klar ist, was Vera alles kann und soll (Systemmonitoring? Kontrolle? Unterrichtsentwicklung? Individuelle Förderung?), erscheint der Begriff “Vera” vielerorts verbrannt.

      Seit über 15 Jahren wird versucht, die Nutzung von Vera zu vermitteln. Noch immer nutzen die Schulen die Daten “nicht richtig”. So kamen auch KMK und IQB unlängst dazu, eine Vera-Arbeitstagung zu veranstalten, um erneut und wieder einmal die Weiterentwicklung zu diskutieren. 

      Mittlerweile gibt es sogar eine aufwändig entwickelte Onlinetestung. Auch hier kulturhoheitliches Tohuwabohu: die eine Schule testet vollständig online, die nächste teilweise, die dritte nur auf Papier. 

      Vielleicht könnte man einmal überlegen, ob die Schwierigkeit mit Vera an den sich widersprechenden Zielen des Instruments liegen könnte.

      Was macht nun die Open Knowledge Foundation aus diesem inhaltlichen Drama?

      Sie springt mitten rein und mischt in diesem Durcheinander als weiterer Konfusionstreiber mit. Die OKF vergisst vor allem, dass Vera verwirrend teil-freiwillig ist. Sie führt Niedersachsen noch als Teilnehmer auf, obwohl die (wie eigentlich?) aus Vera ausgestiegen sind. Man könnte auch erläutern, warum die Daten einiger Bundesländer, unvollständig sind: Weil die Teilnahme in einer Domäne z. B. in einem Jahr ausgesetzt wurde oder schlichtweg so nicht vorliegen.

      Vera neu formatieren

      Die OKF versteht grundsätzlich unter Vera nur Vera 3, ohne das zu sagen oder zu begründen. Sie vergibt auf ihrer Seite Wo-ist-Vera? für “Auflösung der Daten” 3 Punkte, wenn diese auf Kreis-/Bezirksebene oder 2 Punkte, wenn diese auf regionaler Ebene veröffentlicht wurden. Im Datensatz stellt sie diese regionalen Daten aber selbst nicht zur Verfügung und erklärt auch nicht, was eigentlich regionale von Bezirksebene unterscheiden würde. Nicht zuletzt: Was soll diese Datenveröffentlichung auf regionaler Ebene aussagen, wenn die Teilnahme so divers ist?

      Was also wäre zu tun? Vera gehört zerschlagen – und auf dreifache Art neu formatiert. Als ein Instrument zum Systemmonitoring des Bundeslandes, eines zur Schulentwicklung. Und zusätzlich eines, mit dem Lehrer ihre Schüler diagnostizieren. Jedes hätte für sich ein klares Ziel, einen klaren Aufbau und eine auf dieses Ziel ausgerichtete Rückmeldung.

      Timo Off ist seit 2015 Schulleiter der Gemeinschaftsschule mit Oberstufe in Nortorf. Zuvor war er in Landesinstitut und Bildungsministerium (SH) sechs Jahre für die VERA-Koordination zuständig. 

      Mehr zum Thema

        • Bildungsmonitoring
        • Bildungspolitik
        • IQB
        • Open Knowledge Foundation
        • Pisa
        • Vera

        News

        Klagen gegen Kultusminister

        Mit dem Zurückhalten der Daten über den Lernstand wollten die Kultusminister eigentlich Vergleiche vermeiden. Es sollte keine Rangliste des Lernerfolgs in den Bundesländern entstehen. Sie haben das Gegenteil erreicht. Nun gibt es eine Rangliste der Intransparenz bei den Ergebnissen der Vera-Daten. Und obendrein fangen sich Kultusminister wohl Klagen ein. Die Open Knowledge Foundation (OKF), die das systematische Verschweigen der Daten auf der Seite wo-ist-Vera? aufgelistet hat, will blockierende Regierungen vor Gericht zitieren. “Wir prüfen zurzeit Klageverfahren“, sagte OKF-Projektleiter Maximilian Voigt zu Bildung.Table. Erster Kandidat könnte Hessen sein – das Land, das überhaupt nicht auf die Anfrage nach den zurzeit am meisten begehrten Lerndaten reagiert hat.

        Voigt ist überzeugt, dass die Öffentlichkeit und die Wissenschaft diese Daten brauchen. “Es sind die einzigen halbwegs standardisierten Daten über unser Schulsystem”, sagt er. “Niemand kann feststellen, welches Potenzial Vera-Daten haben, wenn es keinen Zugang zu ihnen gibt.” 

        Voigt arbeitet für die Plattform an Bildungsthemen. Die Ergebnisse der Kompetenztests, die die meisten Kultusminister zurückhalten, wollte er mittels Informationsfreiheitsgesetz erzwingen. Die OKF setzt sich für den Zugang zu Informationen ein, die für die politische Beteiligung wichtig sind. Die standardisierten Kompetenzerhebungen der Länder darüber, wie die SchülerInnen in der Corona-Krise gelernt haben, gehören seiner Ansicht nach unbedingt dazu. “Im Kontext möglicher Lernrückstände durch die Pandemie versteht niemand, warum nicht alle vorhandenen Informationen genutzt werden, um diese wichtige Frage aufzuklären.” 

        Zumal die Dringlichkeit von höchster politischer Ebene bestätigt wurde. Bundesbildungsministerin Anja Karliczek (CDU) sprach bereits im März von “deutlichen Lernrückständen” bei 20 bis 25 Prozent der SchülerInnen

        Transparenz-Rangliste der Länder beim Lernstand

        Im Ranking, das die Transparenz der Länder beim Lernstand bewertet, schneidet Baden-Württemberg am besten ab. Die dortige Kultusministerin der Grünen, Theresa Schopper, ließ Daten übermitteln, die zu 92 Prozent vollständig und zu drei Vierteln transparent waren. Ähnlich hielten es Nordrhein-Westfalen und Schleswig-Holstein. Alle anderen wanden sich um ordentliche Antworten. “Wir haben lediglich aggregierte Daten angefragt”, sagt Voigt. Es könne nicht sein, dass Daten, die für die Gestaltung von Bildungspolitik verwendet werden, nicht allen zur Verfügung stehen. “Aufbereitet für Bürger sind solche Informationen enorm wichtig für die demokratische Kontrolle bildungspolitischer Maßnahmen.” 

        Das sehen die Länder offenbar anders. Neben Hessen gaben Bremen und das Saarland selbst nach Anfrage gemäß Informationsfreiheitsgesetz die Daten nicht heraus. Bayern und Sachsen haben ein solches Gesetz gar nicht. Christine Keilholz

        Mehr zum Thema

          • Anja Karliczek
          • Bildungspolitik
          • Open Knowledge Foundation
          • Vera
          Licenses:

            • Bildung.Table-Spezial über den Verbleib der Vera-Daten
            • Angebot von Simpleclub: Lernstandserhebung binnen Wochen
            • Blogpost I: Axel Plünnecke – “Nie waren Daten so wertvoll”
            • Blogpost II: Timo Off – “Vera gehört zerschlagen”
            • Bürgerrechtler verklagen Kultusminister
            Liebe Leserin, lieber Leser,

            nach Fußballspielen nutzen Experten gerne Heatmaps, um das Spiel noch einmal zu durchleuchten. Rote und gelbe Flecken zeigen dann, in welchem Areal die meisten Angriffe gestartet wurden – und wo wenig los war. Welcher Spieler wie oft den Ball berührte, erfährt man schon während des Spiels. 

            Was hat das mit den Schulen nach der Pandemie zu tun? Leider nichts. Denn selbst in der größten Krise des Bildungssystems seit dem Zweiten Weltkrieg gibt es für Schulen keine Heatmaps. Wir können nur ahnen, wo die Problemschulen sind, wer Lernlücken hat und wie man also Schülerinnen und Schülern helfen könnte. Die Kultusminister erheben zwar Daten mittels der “Vera”-Vergleichsarbeiten. Aber sie tun es unregelmäßig – und wenn sie es tun, verstecken sie die Ergebnisse häufig vor den Bürgern. 

            Die Schulminister sind im Blindflug, sagen renommierte Wissenschaftler. Und weil aus vereinzelten Stimmen ein Chor des Protests gegen die Geheimpolitik der Schulminister geworden ist, haben wir uns entschlossen ein “Vera”-Spezial herauszubringen. Ausnahmsweise können Sie also am Wochenende in Ruhe einen neuen Bildung.Table studieren – auch wenn Teile dieser Ausgabe Sie beunruhigen könnten. 

            Wir berichten ihnen exklusiv vom Unmut der Wissenschaftlerinnen über die KMK – und verraten, warum er kein Zufall ist. Die Kultusminister haben das nationale “Institut zur Qualitätsentwicklung im Bildungswesen” von Anfang zu einer Behörde gemacht, die ihrem Willen zu folgen hat. Dabei gäbe es eine simple Lösung, einen präzisen und schnellen Kompetenztest für die Bildungsrepublik zu machen – nämlich digital. Es steht alles bereit. Die Bundesbildungsministerin müsste nur zugreifen. 

            Zwei Blogposts klären uns tiefer auf: Der Bildungsökonom Axel Plünnecke erläutert, warum die Lernstandserhebung Vera essenziell für den Bildungsaufstieg vieler sein wird. Der Schulleiter und Vera-Experte Timo Off schildert, wie sich die Länder die Vergleichsarbeiten untertan gemacht haben. Und wir zeigen, wie eine Bürgerrechtsorganisation die Schulminister mit juristischen Mitteln ins Jahrhundert der Daten zwingen will.
            Ich wünsche Ihnen ein schönes Wochenende!

            Ihr
            Christian Füller
            Bild von Christian  Füller

            Analyse

            Der Datenkampf

            Die Forschung ist schon lange auf den Barrikaden gegen die Geheimhaltungspolitik der Kultusminister. Doch jetzt, nach dem möglichen Ende der Pandemie, reißt vielen Wissenschaftlern der Geduldsfaden. “Wir wissen zu wenig über unser Bildungssystem”, sagt etwa Kerstin Schneider vom Wuppertaler Institut für bildungsökonomische Forschung. “Es muss jetzt gehandelt werden“, fordert sie von den Ländern. Schneider will, dass die Kultusminister die Daten der sogenannten “Vergleichsarbeiten” der Forschung zur Verfügung zu stellen. “Lernstandserhebungen wie die Vergleichsarbeit Vera haben ein großes Potential für die Analyse und Steuerung von Bildungssystemen, denn sie erfassen die Kompetenzen aller Schüler:innen”, sagt sie. 

            Kerstin Schneider gehört dem “Rat für Sozial- und Wirtschaftsdaten” an, der die Bundesregierung berät. Sie ist nicht die einzige KMK-Kritikerin. Es wirkt wie ein Aufstand der Empirie gegen die Aktion Giftschrank der Schulminister, der sich da gerade aufbaut. Bildungsökonomen, Germanisten, Nachwuchsforscher, sie alle fordern: rückt die Daten raus! 

            Forscher: “Rückt die Daten raus”

            Auslöser des Unmuts ist, dass die Länder während der Pandemie Kompetenztests in den Schulen vornehmen ließen – die Ergebnisse aber oft nicht veröffentlichen wollen. Das bringt die Forscher auf. Aber nicht nur sie fragen sich: Wie kann die KMK glauben, im Zeitalter der Datafizierung Informationen über öffentliche Schulen zur Verschlusssache zu erklären? Zumal längst mächtige digitale Analyseinstrumente zur Verfügung stehen. Wie lange werden die großen Startups dem Drei-Affen-Prinzip der Kultusminister noch zuschauen? 

            Die Forscher haben ihr langes Schweigen nach der Freischaltung der Webseite Wo-ist-Vera? gebrochen, wo die Open Knowledge Foundation die von den Kultusministern herausgepaukten Daten veröffentlicht. (Siehe News) “Bereits erhobene Tests aus dem Jahr 2020 sollten vollständig veröffentlicht werden, damit wir schnell ein Bild vom postpandemischen Lernstand bekommen”, schreibt Axel Plünnecke vom Institut der Deutschen Wirtschaft in dieser Ausgabe. (Siehe Blogpost) 

            Es sind freilich nicht allein Bildungsökonomen, die Wert darauf legen, dass einerseits die Forschungsfreiheit gewahrt wird und andererseits die Lernlücken exakt und schnell erhoben werden. “Gerade weil wir für Deutschland erst wenige Studien zur Leistungsentwicklung während Corona haben, ist eine rasche Ergänzung von Daten sehr wünschenswert”, sagt Sebastian Susteck. Der Germanistikprofessor an der Ruhr-Uni Bochum weiß, dass die Erhebung der Vergleichsarbeiten der Klassen 3 und 8 in den Ländern extrem unterschiedlich gehandhabt wird. (Siehe Blogpost Timo Off) Aber auch er findet: die Nebelstocherei muss ein Ende haben. “Falls die Bundesländer über unveröffentlichte Daten verfügen, wäre es gut, wenn diese in Anbetracht der besonderen Lage zur Verfügung gestellt oder für transparente Vergleichsstudien genutzt würden, die die Öffentlichkeit rasch erreichen.”

            Lange Wartezeiten auf Datenzugriffe

            Dass es massenhaft wertvolle Daten in den Bundesländern gibt, daran kann kein Zweifel bestehen. Der junge Bildungsökonom Maximilian Bach vom ZEW Mannheim weiß davon ein Lied zu singen. Er wollte bereits mehrfach auf die Daten zugreifen und musste dann erfahren, wer sich als Eigentümer der Daten sieht: die Kultusbürokratie. Was er nicht gelten lässt, ist die Argumentation mancher Beamter. Die Vera-Daten seien, erstens, nicht dazu da, Lernlücken aufzuspüren. Und sie seien, zweitens, dazu auch gar nicht geeignet. Bach sagt, das Gegenteil sei richtig. Man sei auf die Vera-Daten angewiesen, um den postpandemischen Lernstand zu ermitteln. “Die Veratests nämlich sind der einzige jährlich erhobene Kompetenz-Messwert für nahezu alle Schülerinnen und Schüler der 3. und 8. Klassenstufe in Deutschland”, erklärt Bach. “Andere Schulleistungsstudien wie Pisa oder der IQB-Bildungstrend finden in einem drei- oder gar fünfjährigen Zyklus statt. Damit fehlen für ein so einschneidendes Ereignis wie die Corona-Epidemie zeitlich naheliegende Vergleichspunkte.”

            Der renommierte Bildungsökonom Ludger Wößmann vom Ifo-Institut in München ist wohl der härteste Gegner des Datenversteckspiels der Länder. Wößmann hat erlebt, dass Doktoranden acht bis zehn Monate warten mussten, ehe ihnen das IQB in Berlin den Zugang zu den Daten verweigerte. In den Augen des Bildungsforschers, der schon Offene Briefe und Gutachten gegen das Datenverstecken schrieb, ein Skandal. Die Pandemie hat Wößmann nicht milder werden lassen. “Ich spreche mich sehr für Datenverfügbarkeit aus”, sagt er. “Gerade jetzt nach Corona wäre es so wichtig zu wissen, wo die Schülerinnen und Schüler stehen.”

            Wößmann rennt schon seit Jahren gegen die Metternich’sche Zensurpolitik der Schulminister an. Er weiß, dass die Gründung des IQB in Berlin im Grunde den kurzen Frühling der Pisa-Empirie konterkarierte. Zunächst hatten die KMK die Einführung der damals neuartigen Pisastudien als den Anfang evidenzbasierter Bildungspolitik gefeiert. Als die ersten Pisa-Studien 2001 und 2004 erschienen, zerriss der rosarote Dichter-und-Denker-Vorhang vor dem deutschen Schulsystem. Plötzlich wurden Risikoschüler und funktionale Analphabeten als Helden im Schultheater sichtbar. Und der Pisa-Boss der OECD, der ehemalige Waldorfschüler Andreas Schleicher, hielt den Kultusministern den Spiegel vor, in dem sie eine Schule sahen, die sie nicht mochten: leistungsschwach, ungerecht und ungleich. 

            Das IQB darf Vera nicht auswerten

            Schnell begannen die Kultusminister gegen Mister Pisa zu stänkern. Als das nicht fruchtete, stiegen sie kurzerhand aus den Pisa-Sonderstudien für Deutschland aus – und gründeten ein eigenes Institut, das “Institut zur Qualitätsentwicklung im Bildungswesen”. Dem IQB war eines von Anfang an gewissermaßen bei Strafe verboten: Ländervergleiche. Daher rührt die absurde Arbeitsteilung bei den Vera-Vergleichsarbeiten. Das IQB entwirft wissenschaftlich hochwertige Fragebögen (Testhefte), verteilt sie an die Länder – und bekommt nichts zurück. Jedes Land wertet nur für sich aus, denn sonst könnte im IQB ja vielleicht eines der berüchtigten Länder-Rankings angefertigt werden, die man an Pisa immer so hasste. Spricht man mit IQB-Leuten über dieses per KMK-Beschluss besiegelte Kontakt- und Auswertungsverbot, werden sie sehr nachdenklich – und schweigsam. “Bitte nicht zitieren”, ist der einzige zitierfähige Satz, der aus solchen Gesprächen tröpfelt. 

            Aber kann man eine derart mittelalterlich anmutende Datenpolitik im beginnenden Zeitalter der Datafizierung der Schulen durchhalten? In den letzten 14 Monaten haben sich Schulclouds und Lernmanagementsysteme in Windeseile über die Schulen verbreitet. Ihr wichtigstes Merkmal sind: Daten. Die werden jetzt massenhaft anfallen – und damit bricht ein neues Zeitalter an den Schulen an, sozusagen das der Post-Daten-Hoheit der Kultusminister. Diese Ära wartet nicht mehr, sie klopft schon an die Tür – auch bei den Lernstandserhebungen.

            Das Startup “Simpleclub” behauptet nämlich, Vera hin oder her, eine schnelle, einfache und sehr präzise Auskunft über den Lernstand der Schüler geben zu können. Die beiden Gründer Alexander Gieseke und Nico Schork hatten dem Bundesbildungsministerium bereits vor Wochen angeboten, eine Lernstandserhebung digital vorzunehmen. Simpleclub hat rund eine Million Nutzerinnen, daraus ließe sich eine repräsentative Stichprobe ziehen. Dann könnte man mithilfe von Pisa- oder Vera-Kompetenzfragen den aktuellen Lernstand der Schülerinnen und Schüler messen. “Lernstandsermittlung ist etwas, das wir jeden Tag machen”, sagt Miteigentümer Giesecke zu Bildung.Table. “Mit unserer Technologie sind wir in der Lage, den aktuellen Lernstand von hunderttausenden Schülerinnen und Schülern zu erfassen und die erhobenen Daten automatisiert in kurzer Zeit auszuwerten.

            10.000 Lernstände binnen einer Woche

            Simpleclub hat inzwischen Gespräche sowohl mit dem ifo-Institut in München sowie mit dem Leibniz-Institut für Bildungsverläufe in Bamberg über eine mögliche Kooperation geführt. Die Leiterin des renommierten Bamberger Instituts, Cordula Artelt, hatte sich deswegen sogar persönlich an Giesecke und Schork gewandt. Die beiden Ex-Youtuber sagen, dass sie für eine Lernstandserhebung zusammen mit der Forschung sofort bereit seien. “Wir könnten innerhalb einer Woche eine fünfstellige Zahl an Schülerinnen und Schülern eines oder mehrerer Jahrgänge in verschiedenen Kompetenzbereichen testen und die ausgewerteten Daten unmittelbar aufbereiten und zur Verfügung stellen.” Die Auswahl der Teilnehmer müsse natürlich mit Hilfe der Wissenschaft repräsentativ erfolgen. 

            Bundesbildungsministerin Anja Karliczek (CDU) hat offiziell bisher nicht auf das Angebot reagiert. Ihr Ministerium zeigte sich auf Anfrage interessiert an einer Erhebung. “Eine verlässliche Datengrundlage für eventuell aufgetretene Lernlücken wäre begrüßenswert”, sagte eine Sprecherin. “Die bisherigen für Deutschland oder einzelne Bundesländer veröffentlichten Studien bieten kein ausreichendes Bild.” Gleichzeitig ließ die Ministerin einem Alleingang durch den Bund etwa mit Simpleclub eine Absage erteilen – zunächst. “Eine Erhebung von Daten ohne Abstimmung mit den Ländern ist nicht das Ziel des Bundes”.

            Was die Bundesbildungsministerin hier mitteilt, ist so etwas eine Gnadenfrist – für die KMK und das IQB. Der Bund ist zuständig fürs Bildungsmonitoring. Bisher musste er stets die Länder fragen, um in den Schulen Daten zu erheben. Mit dem Angebot von Simpleclub ist diese Veto-Möglichkeit der Länder verwirkt. Das bedeutet, Simpleclub könnte zusammen mit Anja Karliczek, dem Ifo-Institut und in Abstimmung mit dem Datenschutz Kompetenztests bei Schülern vornehmen – ohne auch nur einen Fuß in die Schulen zu setzen.

            Vielleicht sollten die Kultusminister nochmal nachdenken, ehe sie Nein sagen, wenn jemand Daten von ihnen will. Sonst greift man auf anderem Weg nach den Daten.

            Mehr zum Thema

              • Bildungsmonitoring
              • Bildungspolitik
              • Digitalisierung
              • Gesundheit
              • IQB
              • KMK
              • Open Knowledge Foundation
              • Vera

              Blogpost

              “Vera-Daten so wertvoll wie nie”

              Auf dem Foto ist Axel Plünnecke zu sehen, er leitet das Kompetenzfeld Bildung, Zuwanderung und Innovation des Instituts der deutschen Wirtschaft: Vera-Daten sind so wertvoll wie nie
              Axel Plünnecke leitet das Kompetenzfeld Bildung, Zuwanderung und Innovation des Instituts der deutschen Wirtschaft.

              Ein Gastbeitrag von Axel Plünnecke

              In normalen Zeiten entwickelt sich das für die Lernprozesse der Schülerinnen und Schüler relevante Umfeld von Schulen nur in geringem Maße. Bis Anfang 2020 wurden Lernzeiten durch den Ausbau der frühkindlichen Bildung und Ganztagsangebote zwar ausgeweitet. Trotz der Digitalisierung oder neuer pädagogischer Konzepten gab es aber bis dahin relativ wenig Veränderungen etwa im Unterricht der Schulen. Kein Wunder also, dass die Kompetenzentwicklung der Lernenden über einen längeren Zeitraum hinweg fast stabil blieb. Die bei “Pisa 2000” erstmals dokumentierten Leistungslücken und Ungleichheiten haben sich nicht einschneidend verbessert, wenn man sich die gemessenen Ergebnisse des internationalen Vergleichstests oder auch des “Bildungstrends” des nationalen Berliner Messinstituts IQB ansieht.

              Eine völlig andere Situation ist mit dem März 2020 eingetreten. Im Zuge der Pandemie-bedingten Schließungen mussten Schulen praktisch über Nacht im Zeitumfang von mehreren Monaten auf digitalgestützten Distanzunterricht umsteigen. Erste empirische Befunde aus anderen Ländern zeigen, dass dort größere Lernlücken entstanden sind, die sich nach Altersjahrgängen (Jüngere waren stärker betroffen als Ältere), Kompetenzbereichen (Mathematik stärker betroffen als Lesen), sozioökonomischen Faktoren (Ärmere stärker betroffen als Reichere) und weiteren Aspekten (Leistungsschwächere stärker betroffen als Leistungsstärkere) unterscheiden. Selbst die Leistungen der Schülerinnen und Schüler mit gleichen Merkmalen streuen dabei sehr stark. Befragungen von Lehrkräften zeigen in Deutschland ferner, dass die Schulen sehr unterschiedlich auf den digitalen Fernunterricht vorbereitet waren. Größere Unterschiede und Anpassungsschwierigkeiten waren sogar noch im Frühjahr 2021 festzustellen. 

              Wie in einem Blindflug

              Insgesamt wird seitens der Bildungspolitik festgestellt, dass größere Lernlücken entstanden sein dürften. Ein bundesweites Aufholprogramm im Umfang von zwei Milliarden Euro zur Schließung der Lernlücken wurde verabschiedet – eine Milliarde für Nachhilfe, eine Milliarde für sozialpädagogische Maßnahmen und Mentoring-Programme. Regional wollen die Länder das Nachhilfe-Programm in unterschiedlicher Form und Umfang ergänzen. Bei der Umsetzung wird jedoch wie in einem Blindflug vorgegangen. Es existieren keine Daten zu tatsächlich entstandenen Lücken, die nach Schulen, Schülergruppen, Kompetenzbereichen, Jahrgängen, Leistungsstand und weiteren sozioökonomischen Faktoren der Schülerinnen und Schüler differenziert werden könnten. Medizinisch gesprochen: Die Anamnese fehlt. 

              Die beinahe alleinige Verantwortung tragen erneut die Lehrkräfte und Schulleiter. Sie können die Lücken zwar im Unterricht in Teilen beobachten – aber nicht systematisch in den genannten relevanten Kategorien einordnen und vergleichen. Daher wäre es eher Zufall als systematische Steuerung, wenn die Fördermilliarden tatsächlich dort gezielt ankommen würden, wo die Lücken am größten und Bildungschancen am stärksten eingebrochen sind.

              Ein Bild des postpandemischen Lernstands

              Um diese zusätzlichen Förderangebote sinnvoll planen und inhaltlich gestalten zu können, müsste also zunächst systematisch festgestellt werden: Wie hoch sind die Lernverluste durch die Schulschließungen in den einzelnen Jahrgängen wirklich? In welchen Bereichen treten sie auf? Hierzu sollten Lernstandserhebungen wie Vera oder anderer Tests an allen Jahrgängen an allen Schulen durchgeführt werden. Und bereits erhobene Tests aus dem Jahr 2020 sollten vollständig veröffentlicht werden, damit wir schnell ein Bild vom postpandemischen Lernstand bekommen. 

              Um bei der Förderung nicht im Blindflug unterwegs zu sein und wirklich gezielt und effektiv fördern zu können, sollten die Vergleichstests erheben:

              • Welche Schülergruppen an welchen Schulen wurden besonders stark in welchen Kompetenzbereichen betroffen? Es muss vermieden werden, dass Fördermittel an Schüler und Schulen ohne Lernlücken fließen, während die Mehrbedarfe bei Schülerinnen und Schülern und an Schulen mit großen Lücken nicht in ausreichendem Maße gedeckt werden können.
              • Welchen Schulen gelang es bei vergleichbaren sozioökonomischen Merkmalen der Schülerinnen und Schüler gut, Lernlücken zu vermeiden? Welche Lernstrategien haben diese Schulen während der Schulschließungen und in den Präsenzphasen danach eingesetzt? Hieraus können Konzepte abgeleitet werden, wie bei eventuell erneut notwendigen Einschränkungen des Schulbetriebs am besten vorgegangen werden sollte.
              • Wie gut ist der Lernstand heute und wie entwickeln sich die Kompetenzen bei den Schülerinnen und Schülern, an den Schulen und in den Bundesländern durch die von den Ländern entwickelten Förderkonzepten für den Sommer 2021 und folgende Monate des nächsten Schuljahres? Nur so ist eine Evaluation und Weiterentwicklung der Förderprogramme möglich, um Lernlücken bestmöglich schließen zu können.

              Wichtig wäre es also, dass neben den Kompetenzen der Schülerinnen und Schüler noch weitere Merkmale wie der familiäre Hintergrund (Bildungsstand der Eltern, Migrationshintergrund, Wohnsituation, Verfügbarkeit eines eigenen digitalen Endgeräts, eigener ruhiger Arbeitsplatz), die Organisation des Distanzunterrichts (Online-Unterricht, Lern-Plattform, Zusendung von Materialien, Art des Unterrichts) und durchgeführte Fördermaßnahmen an den Schulen erhoben werden. Das bedeutet, dass endlich der Schülerkerndatensatz mit den Ergebnissen der Kompetenztests verknüpft werden kann. 

              Vera-Tests: nicht gemacht oder nicht veröffentlicht

              Diese Tests wurden leider häufig nicht durchgeführt oder veröffentlicht. Ob das Milliarden-Hilfsprogramm deutlich zu klein ist oder nicht, ob es die richtige Zielgruppe in der richtigen Art und Weise erreicht und wie es effektiv weiterentwickelt werden sollte, bleibt also ungewiss. Noch schlimmer – die wenigen vorliegenden, wenn auch vielleicht von einem größeren Auslesebias betroffenen Vera-Daten, werden nicht systematisch wissenschaftlich ausgewertet. Durch eine statistische Bereinigung der unterschiedlichen Teilnahmequoten von Schulen mit unterschiedlichen Problemlagen könnte man sich den oben genannten Fragen zumindest in kleineren Ausschnitten annähern. 

              Dass selbst die notwendige Diskussion zu diesen Daten unterbleibt, ist in meinen Augen besonders traurig, denn noch nie war eine aktuelle Datenlage zur gezielten Sicherung der Zukunftschancen aller Schülerinnen und Schüler so wichtig wie heute. Wer Bildungsaufstieg auch nach der Pandemie möglich machen will, der braucht schnell ein genaues Bild davon, wer in den zurückliegenden 14 Monaten den Anschluss verloren hat. 

              Professor Axel Plünnecke leitet das Kompetenzfeld Bildung, Zuwanderung und Innovation des Instituts der deutschen Wirtschaft (IW) in Köln.

              Mehr zum Thema

                • Bildungsmonitoring
                • Bildungspolitik
                • IQB
                • Lernlücken
                • Pisa
                • Vera

                “Vera gehört zerschlagen”

                Timo Off ist Schulleiter der Gemeinschaftsschule Nortorf und sagt Vera den Kampf an.
                Timo Off ist Schulleiter der Gemeinschaftsschule Nortorf.

                Ein Gastbeitrag von Timo Off

                “Vera” oder genauer, die “VERgleichsArbeit” für jährliche Kompetenztests von Schüler:innen, erblickte vor 15 Jahren das Licht der Welt. Zunächst als “Vera 3” für die dritten Klassen, dann mal kurz “Vera 4” für die Vierte, dann Vera 8, dann in Teilen Vera 6. Mal freiwillig, mal vollständig verpflichtend – aber nicht in allen Fächern. Nun wird es in fast allen Bundesländern umgesetzt, nur Niedersachsen nimmt gar nicht mehr teil. 

                Die Aufgabenentwickler stellen für jedes Fach unterschiedliche Testheftvarianten bereit, die sich teilweise überlappen. Jedes Bundesland entscheidet selbst, welche Varianten es wie einsetzt oder sogar lokal anpasst. Es ist so verwirrend, wie es sich liest. Der Chor aus 16 Bundesländern, dem koordinierenden, aber machtlosen “Institut zur Qualitätsentwicklung im Bildungswesen” (IQB) in Berlin und der Konferenz der Kultusminister (KMK) ist vielstimmig. Kein Dirigent vermochte diese Gruppe bislang auf eine gemeinsame Melodie zu einen. 

                Vera als Kontrolle empfunden

                Nehmen wir Schleswig-Holstein. Dort wurden zunächst sogenannte Parallelarbeiten eingeführt: In jedem Jahrgang schreibt man gemeinsam eine Arbeit. Von Kolleg:innen entwickelt. Um das Gespräch über Unterricht zu fördern. Um gemeinsame Bewertungsgrundlagen festzulegen und sich über Inhalte und Methoden auszutauschen. Was für sinnvolle Ideen! Kurze Zeit später wurden dann bundesweit Vergleichsarbeiten (Vera) für den dritten Jahrgang erfunden. Dabei sollten die Arbeiten ans Land gesandt werden: “Um allgemeine Entwicklungen in einem Land bzw. länderübergreifend beschreiben zu können, werden die Ergebnisse von ca. 10 Prozent aller Grundschulen in Schleswig-Holstein zentral erfasst und einer Analyse unterzogen.” (Vera Erlass SH 2006)

                Leider vermischte man in weiteren Gesetzestexten sprachlich die Einführung der beiden Diagnoseinstrumente, sodass die Kollegien die Parallel- und die Vergleichsarbeiten synonym verwendeten. Die Bitte um Einsendung, um landesweite Entwicklungen beschreiben zu können, wurden zudem als Kontrolle empfunden.

                Vera fehlt der Fokus

                Im Anschluss dann folgten “Vera 8” Mathematik, dann Deutsch, Englisch, schließlich noch in wenigen Ländern Vera 6. Die Dateneingabe wurde länderübergreifend organisiert. Beteiligte Lehrkräfte sollten die Ergebnisse auf Datenplattformen übertragen – was niemand schätzte. Die Auswertung erfolgte jedoch immer strikt bundeslandbezogen. Denn die Aufgabenentwickler stellten ja unterschiedliche Testheftvarianten bereit und auch die an die Lehrkräfte zurückgemeldeten Daten unterscheiden sich 16-fach. So waren und sind die Ergebnisse eigentlich nie bundeslandübergreifend zu interpretieren.

                Vera hat keinen klaren Fokus. Was will Vera? Will Vera Leistungsdaten der Bundesländer im Vergleich aufzeigen? Dann sollte es mit Testleitern durchgeführt werden. Nur dann herrschten überall gleiche Bedingungen. Dies kann sich aber nur ein Stadtstaat wie Hamburg leisten. In einem Flächenland wäre dies nicht umzusetzen. Zudem gibt es ja bereits einen Ländervergleich, vorgenommen durch das IQB. Dieser Vergleich könnte, wie es sich die Open Knowledge Foundation wünscht, über “den Erfolg bildungspolitischer Maßnahmen” Aussagen treffen – viel besser und genauer als der Vera-Test.

                Oder soll Vera das jeweilige Bundesland untersuchen? Auch hierfür ließen sich die Aufgaben verwenden – wenn man denn erläutern würde, dass genau dies der Zweck der Erhebung sein soll. Post aus dem Ministerium: “Wir wollen wissen, wie unsere Schulen dastehen. Daher findet am Tag XY ein Test statt. Überall zur gleichen Zeit, überall dieselben Aufgaben. Die Ergebnisse werden zentral eingeben und Schulaufsicht wird die Daten nutzen, um im Anschluss über Förderprogramme für Schulen zu befinden.” Solche High-Stake-Tests gibt es in Deutschland nicht, anders als in den USA. Hier herrscht einfach eine andere Kultur. Daher findet die Übergabe der Daten an die Schulaufsicht eher verschämt statt. 

                Mit Vera auf Schulebene die Unterrichtsentwicklung zu fördern, das ist eines der offiziell ausgegeben Ziele. Hier wären dann die Schulleitungen und Koordinatoren gefordert. Wie kommt man bei jährlich wechselnden Aufgaben, Lehrkräften und Schülerschaften zu sinnvollen Vergleichen? Wie kann man die Vera-Werte des letzten Jahrgangs angemessen zu denen des aktuellen Jahrgangs ins Verhältnis setzen? Was wäre eigentlich eine signifikante Verbesserung? Es bleibt Aufgabe der Schulleitung hier unglaublich behutsam, nicht zu vorschnell urteilend und umsichtig Schlüsse zu ziehen.

                Der Begriff “Vera” ist bei Lehrer:innen verbrannt

                An dieser Stelle zeigt sich die oben beschriebene begriffliche Schwierigkeit in der Einführung. Da den Lehrkräften vor Ort nicht klar ist, was Vera alles kann und soll (Systemmonitoring? Kontrolle? Unterrichtsentwicklung? Individuelle Förderung?), erscheint der Begriff “Vera” vielerorts verbrannt.

                Seit über 15 Jahren wird versucht, die Nutzung von Vera zu vermitteln. Noch immer nutzen die Schulen die Daten “nicht richtig”. So kamen auch KMK und IQB unlängst dazu, eine Vera-Arbeitstagung zu veranstalten, um erneut und wieder einmal die Weiterentwicklung zu diskutieren. 

                Mittlerweile gibt es sogar eine aufwändig entwickelte Onlinetestung. Auch hier kulturhoheitliches Tohuwabohu: die eine Schule testet vollständig online, die nächste teilweise, die dritte nur auf Papier. 

                Vielleicht könnte man einmal überlegen, ob die Schwierigkeit mit Vera an den sich widersprechenden Zielen des Instruments liegen könnte.

                Was macht nun die Open Knowledge Foundation aus diesem inhaltlichen Drama?

                Sie springt mitten rein und mischt in diesem Durcheinander als weiterer Konfusionstreiber mit. Die OKF vergisst vor allem, dass Vera verwirrend teil-freiwillig ist. Sie führt Niedersachsen noch als Teilnehmer auf, obwohl die (wie eigentlich?) aus Vera ausgestiegen sind. Man könnte auch erläutern, warum die Daten einiger Bundesländer, unvollständig sind: Weil die Teilnahme in einer Domäne z. B. in einem Jahr ausgesetzt wurde oder schlichtweg so nicht vorliegen.

                Vera neu formatieren

                Die OKF versteht grundsätzlich unter Vera nur Vera 3, ohne das zu sagen oder zu begründen. Sie vergibt auf ihrer Seite Wo-ist-Vera? für “Auflösung der Daten” 3 Punkte, wenn diese auf Kreis-/Bezirksebene oder 2 Punkte, wenn diese auf regionaler Ebene veröffentlicht wurden. Im Datensatz stellt sie diese regionalen Daten aber selbst nicht zur Verfügung und erklärt auch nicht, was eigentlich regionale von Bezirksebene unterscheiden würde. Nicht zuletzt: Was soll diese Datenveröffentlichung auf regionaler Ebene aussagen, wenn die Teilnahme so divers ist?

                Was also wäre zu tun? Vera gehört zerschlagen – und auf dreifache Art neu formatiert. Als ein Instrument zum Systemmonitoring des Bundeslandes, eines zur Schulentwicklung. Und zusätzlich eines, mit dem Lehrer ihre Schüler diagnostizieren. Jedes hätte für sich ein klares Ziel, einen klaren Aufbau und eine auf dieses Ziel ausgerichtete Rückmeldung.

                Timo Off ist seit 2015 Schulleiter der Gemeinschaftsschule mit Oberstufe in Nortorf. Zuvor war er in Landesinstitut und Bildungsministerium (SH) sechs Jahre für die VERA-Koordination zuständig. 

                Mehr zum Thema

                  • Bildungsmonitoring
                  • Bildungspolitik
                  • IQB
                  • Open Knowledge Foundation
                  • Pisa
                  • Vera

                  News

                  Klagen gegen Kultusminister

                  Mit dem Zurückhalten der Daten über den Lernstand wollten die Kultusminister eigentlich Vergleiche vermeiden. Es sollte keine Rangliste des Lernerfolgs in den Bundesländern entstehen. Sie haben das Gegenteil erreicht. Nun gibt es eine Rangliste der Intransparenz bei den Ergebnissen der Vera-Daten. Und obendrein fangen sich Kultusminister wohl Klagen ein. Die Open Knowledge Foundation (OKF), die das systematische Verschweigen der Daten auf der Seite wo-ist-Vera? aufgelistet hat, will blockierende Regierungen vor Gericht zitieren. “Wir prüfen zurzeit Klageverfahren“, sagte OKF-Projektleiter Maximilian Voigt zu Bildung.Table. Erster Kandidat könnte Hessen sein – das Land, das überhaupt nicht auf die Anfrage nach den zurzeit am meisten begehrten Lerndaten reagiert hat.

                  Voigt ist überzeugt, dass die Öffentlichkeit und die Wissenschaft diese Daten brauchen. “Es sind die einzigen halbwegs standardisierten Daten über unser Schulsystem”, sagt er. “Niemand kann feststellen, welches Potenzial Vera-Daten haben, wenn es keinen Zugang zu ihnen gibt.” 

                  Voigt arbeitet für die Plattform an Bildungsthemen. Die Ergebnisse der Kompetenztests, die die meisten Kultusminister zurückhalten, wollte er mittels Informationsfreiheitsgesetz erzwingen. Die OKF setzt sich für den Zugang zu Informationen ein, die für die politische Beteiligung wichtig sind. Die standardisierten Kompetenzerhebungen der Länder darüber, wie die SchülerInnen in der Corona-Krise gelernt haben, gehören seiner Ansicht nach unbedingt dazu. “Im Kontext möglicher Lernrückstände durch die Pandemie versteht niemand, warum nicht alle vorhandenen Informationen genutzt werden, um diese wichtige Frage aufzuklären.” 

                  Zumal die Dringlichkeit von höchster politischer Ebene bestätigt wurde. Bundesbildungsministerin Anja Karliczek (CDU) sprach bereits im März von “deutlichen Lernrückständen” bei 20 bis 25 Prozent der SchülerInnen

                  Transparenz-Rangliste der Länder beim Lernstand

                  Im Ranking, das die Transparenz der Länder beim Lernstand bewertet, schneidet Baden-Württemberg am besten ab. Die dortige Kultusministerin der Grünen, Theresa Schopper, ließ Daten übermitteln, die zu 92 Prozent vollständig und zu drei Vierteln transparent waren. Ähnlich hielten es Nordrhein-Westfalen und Schleswig-Holstein. Alle anderen wanden sich um ordentliche Antworten. “Wir haben lediglich aggregierte Daten angefragt”, sagt Voigt. Es könne nicht sein, dass Daten, die für die Gestaltung von Bildungspolitik verwendet werden, nicht allen zur Verfügung stehen. “Aufbereitet für Bürger sind solche Informationen enorm wichtig für die demokratische Kontrolle bildungspolitischer Maßnahmen.” 

                  Das sehen die Länder offenbar anders. Neben Hessen gaben Bremen und das Saarland selbst nach Anfrage gemäß Informationsfreiheitsgesetz die Daten nicht heraus. Bayern und Sachsen haben ein solches Gesetz gar nicht. Christine Keilholz

                  Mehr zum Thema

                    • Anja Karliczek
                    • Bildungspolitik
                    • Open Knowledge Foundation
                    • Vera
                    Licenses:

                      Jetzt kostenlos anmelden und sofort weiterlesen

                      Keine Bankdaten. Keine automatische Verlängerung.

                      Sie haben bereits das Table.Briefing Abonnement?

                      Anmelden und weiterlesen