Table.Standpunkt
Erscheinungsdatum: 13. März 2024

„Sprachmodelle und KI müssen auf die Liste der zulässigen Hilfsmittel“

Die Nutzungsmöglichkeiten von ChatGPT macht Bewertungen von Prüfungsleistungen kompliziert, sagt Schulrechtlerin Sibylle Schwarz. Auf den ersten Blick scheint die Lage klar: KI-generierte Texte sind keine Eigenleistungen, aber was ist mit den Prompts?

Schulische Abschlussprüfungen sind wichtig für die Zulassung zu einer beruflichen Ausbildung oder zum Studium. Die in einer Prüfung erzielte Note ist für die Hochschulzulassung oder den beruflichen Werdegang von Bedeutung. Wer ohne Abschluss geht, dem ist der Zugang zum erstrebten Beruf zumeist abgeschnitten oder zumindest erschwert.

Bei anderen Prüfungen in der Schule kommt ein pädagogisches Element hinzu. Eine bessere Note kann motivieren, eine schlechtere eine Warnung sein. Die Ergebnisse schulischer Prüfungen zeigen in diagnostischer Weise zugleich den Leistungsstand und die Lernentwicklung und damit auch auf, ob und wo Förderbedarf besteht.

Der durch Art. 3 Abs. 1 Grundgesetz verfassungsrechtlich verbürgte Grundsatz der Chancengleichhei t gebietet für Prüfungsverfahren, möglichst vergleichbare Voraussetzungen für alle Prüflinge zu schaffen und damit allen Prüflingen gleiche Erfolgschancen einzuräumen, um wahre Kenntnisse und Fähigkeiten zeigen zu können. Gleiche Prüfungsbedingungen sind insbesondere bei den Hilfsmitteln zu gewährleisten.

Dabei stellt sich die Frage, wie sich der Grundsatz der Chancengleichheit auf die Nutzung von ChatGPT oder anderen großen Sprachmodellen (Large Language Models, LLM) und die Bewertung von Prüfungsleistungen auswirkt. Zunächst müsste ein von KI-/LLM-generierter Text sicher von einem menschlichen Text unterschieden werden können. Software, die die Verwendung von KI aufdecken soll, arbeitet auch nur nach statistischen Regeln. Und die Eingabe des Textes einer Prüfungsleistung in eine solche Software könnte einen Datenschutzverstoß darstellen. Außerdem kann eine Frage, die einem Sprachmodell zweimal gestellt wird, zu zwei unterschiedlichen Antworten führen. Bei Sprachmodellen geht es in der Regel um das statistisch wahrscheinlichste Wort, manchmal wird auch einfach „gewürfelt“.

Wenn sich ein Text nicht zuverlässig als KI-/LLM-generierter Text identifizieren lässt, können keine rechtlich zulässigen Konsequenzen folgen. Wenn er gesichert durch KI generiert ist, gilt das als Täuschung oder Täuschungsversuch, denn einen KI-/LLM-generierten Text hat der Schüler nicht eigenständig verfasst. Soweit Sprachmodelle nicht ausdrücklich als Hilfsmittel zugelassen sind, ist der Text also unter Zuhilfenahme nicht zugelassener Hilfsmittel entstanden. Im Ergebnis gilt eine Prüfung dann als nicht bestanden, führt zu einer schlechten Zeugnisnote, oder im schlimmsten Fall zum Verlassen der Schule oder Hochschule ohne Abschluss.

Das klingt erst einmal klar. Aber die Sache ist tatsächlich komplizierter. Einen KI-/LLM-generierten Text hat der Schüler zwar nicht eigenständig verfasst, den Prompt aber schon. Die Qualität des Outputs hängt mit der Qualität des Prompts zusammen. Und für einen guten Prompt braucht es Vorwissen.

Wer dann auch noch durch die KI hervorgebrachte Halluzinationen oder Biases bemerkt und abändert, zeigt durchaus eigenständige Fähigkeiten. In den Worten des Impulspapiers der Ständigen Wissenschaftlichen Kommission zu LLM ausgedrückt: „Prompt-Tuning setzt damit kritisches und analytisches Denken voraus und Lernende benötigen breites fachliches Wissen, um die Glaub- und Vertrauenswürdigkeit der LLM-generierten Inhalte einschätzen können.“

Damit der im Grundgesetz verbürgte Grundsatz der Chancengleichheit gewährleistet wird, müssen ausnahmslos alle Schüler Zugang zu Sprachmodellen beziehungsweise KI-Anwendungen haben. Nur dann sind gleiche Prüfungsbedingungen gewährleistet.

Eigenständigkeitserklärungen, worin manche Hochschulen die Lösung sehen wollen, sind trügerisch. Studierende sollen dabei zum Beispiel die KI-Nutzung angeben. Aber dabei können sie falsche Angaben machen, weil sie nicht wissen, wo überall die KI am Werk ist. Und jedes neue Update kann etwas mit KI auf den Rechner spielen, ohne dass das die Nutzer merken.

Diese Punkte machen deutlich, dass Sprachmodelle (LLM) und KI auf die Liste der zulässigen Hilfsmittel aufgenommen werden müssen. Die Verwendung von KI wäre dann die Verwendung eines zugelassenen Hilfsmittels, wie zum Beispiel des Taschenrechners. Die geforderte Kennzeichnungspflicht wäre mit der Angabe des benutzten Hilfsmittels erfüllt.

In der Folge müssen allerdings auch Prüfungsformate entsprechend angepasst werden. Schon seit der Möglichkeit der Suchmaschinen-Suche ist eine Aufgabenstellung einer leicht recherchierbaren Sachfrage keine geeignete Prüfungsaufgabe mehr. Beispielsweise könnten mündliche und praktische Prüfungsteile stärker gewichtet in die Note eingehen. Oder es könnten Antwort-Wahl-Verfahren durchgeführt werden. Didaktische Ideen gibt es viele. Die Schulgesetze und einschlägige Verordnungen in allen 16 Bundesländern müssen dafür zwingend geändert werden.

Sibylle Schwarz ist Rechtsanwältin in der Kanzlei else.schwarz Rechtsanwälte in Wiesbaden. Ihr Schwerpunkt liegt im Beamten- und Bildungsrecht als besonderem Verwaltungsrecht. Sie befasst sich mit Rechtsfragen des Schulbetriebs und des Hochschulwesens. Einer ihrer Schwerpunkte ist außerdem ChatGPT im Bildungsbereich.

Letzte Aktualisierung: 24. Juli 2025
Teilen
Kopiert!