KI ist in aller Munde und auf aller Rechner, auch im Schulbereich. Eine das Interesse der geschätzten Leser:innenschaft weckende Einleitung kann ich mir somit sparen, die beiden Buchstaben K und I sollten genügen.

An unserer Schule haben wir die Möglichkeit, die KI-Tools des Anbieters »fobizz« zu testen. fobizz ist ein kommerzielles Startup aus Hamburg, das in der Corona-Zeit mit Fortbildungen für den Schulbereich groß geworden ist, später Unterrichtsmaterialien ins Repertoire aufgenommen hat und nun eben auch KI-Tools für den Schulgebrauch anbietet. fobizz hostet die Tools nicht lokal, schon gar nicht sind es eigene Tools. Es handelt sich vielmehr um eine Auswahl von KI-Tools namhafter Anbieter wie Mistral, Claude und natürlich ChatGPT für Text sowie Dall-E, Flux und stable diffusion für Bilder.

fobizz sammelt die Anfragen seiner User:innen ein und leitet sie bunt vermischt an die jeweiligen Anbieter weiter. Diese können die User:innen daher über Cookies, Gerätemerkmale etc. nicht identifizieren. Ein datenschutzkonformer Einsatz ist somit machbar, wenn a) die Anfragen selber keine personenbezogenen Daten beinhalten und man b) der Beachtung des Datenschutzes durch fobizz selber traut. fobizz weist Nutzer:innen konsequent darauf hin, keine personenbezogenen Daten in die Anfragen zu geben, selbst bei Anfragen zu »King Charles« fragt es kritisch nach, ob man diese persönlichen Daten wirklich teien möchte. Bleibt also die Frage nach der Zuverlässigkeit von fobizz selber – hierzu gibt es keine Informationen außer der Selbstdarstellung der Firma. Das klingt nach wenig, andererseits gilt: Es handelt sich um eine deutsche Firma, die der europäischen DSGVO und den deutschen Datenschutzgesetzen unterliegt. Ein bisschen Vertrauen wird man da schon haben dürfen.

fobizz leitet Anfragen nicht nur an KI-Anbieter weiter, sondern bietet auch einen echten Mehrwert durch voreingestellte Prompts, die einen bestimmten Kontext wie z.B. Elternbrief oder historische Persönlichkeit schon setzen und so schnell zu brauchbaren Resultaten führen. Ein BASS-Chatbot allerdings produzierte völlig unbrauchbare Ergebnisse.

KI-Tools im Schulbereich haben zwei Gesichter: Zum einen können sie das Leben der Lehrer:in erleichtern, indem sie 08/15 Texte wie Elternschreiben, Informationtexte für Schüler:innen etc. erstellen oder wenigstens einen ersten Entwurf ermöglichen. Logisch: Personenbezogene Daten sind hier tabu, aber die können ja leicht im Rahmen der endgültigen Überarbeitungen ergänzt werden. KI-Tools sind auch jetzt schon hilfreich, wenn ich einen Lückentext mit z.B. 20 Vergangenheitsformen simple past oder present perfect benötige. Auch wenn ich mehrere Texte zu verschiedenen grammatischen Themen benötige, die sich aber alle um ein gemeinsames inhaltliches Thema und vielleicht noch die gleichen Figuren drehen sollen, ist KI hilfreich. Sie vermurkst zwar zuverlässig ca. 1/3 der Lücken, aber dann bestellt man eben mehr als eigentlich benötigt und sortiert aus, was nicht passt. Auch zu Illustrationszwecken ist KI im Unterricht schon jetzt nützlich, und sei es nur als Negativbeispiel. Sehr gute Erfahrungen habe ich z.B. mit KI-generierten Illustrationen des Auferstehungsgeschehens gemacht. Dass in der Grabeshöhle keine Körbe mit Eiern standen und dass Jesus nicht triumphierend durch Spalier stehende Jünger in die Höhle einzog, ist den Schüler:innen natürlich sowieso klar. Wieso die KI es aber gerne so darstellt und wie es wirklich war bzw. was wir überhaupt wissen können – das sind Fragen, anhand derer die Schüler:innen ihr Wissen gut demonstrieren können.

fobizz bietet mehr als KI-Tools zur Verwendung um den Unterricht herum. Es gibt auch die Möglichkeit, pseudonyme Zugänge für Schüler:innen anzulegen und diesen Zugängen gezielt einzelne Tools, ggf. konkretePrompts und Kontexte zur Nutzung freizugenen. Pseudonymisierung alleine schützt natürlich keine Daten, aber in Verbindung mit der oben geschilderten gesammelten Weiterleitung von Daten nach Amerika hängt die DSGVO-Konformität nur an fobizz und ist grundsätzlich möglich. Ich habe im Unterricht zwei Szenarien des KI-Einsatzes getestet und die Ergebnisse waren …gemischt.

1. Beispiel: Englischunterricht in der 7. Klasse; KI zur Fehlerkorrektur und als Gesprächspartnerin.

Die Schüler:innen sollten ein historisches Objekt auswählen (als Abbildung im Internet) und dann aus der Perspektive der (ehemaligen) Besitzer:in oder Nutzer:in in einer Mini-Präsentation vor der Klasse vorstellen. Die KI sollte zwei wesentliche Zwecke erfüllen, nämlich

  1. als Chatpartnerin die Erläuterungen der Schüler:innen hinsichtlich Vollständigkeit, Konsistenz, sprachlicher Richtigkeit und Qualität überprüfen. Hierzu habe ich eine Chatperson erstellt, die als e


    nglischsprachige Siebtklässler:in hilfreiche Rückmeldungen geben sollte.

  2. als Korrektur-KI, die einen fertigen Präsentationstext auf sprachliche Richtigkeit und auf Erfüllung der Bewertungskriterien überprüfen sollte.

Die Ergebnisse waren, wie schon erwähnt, durchwachsen: (1.) sollte eigentlich multiple Probedurchläufe der Präsentation ermöglichen, in deren Verlauf die Inhalte und die Sprache beständig verbessert würden. Leider hat die Chat-KI aber entgegen den Anweisungen nur wenige Nachfragen gestellt und ließ sich, ebenfalls entgegen den Anweisungen, auch auf deutschsprachige Gespräche ein, was der Sache nicht dienlich war. Für (2.) war erforderlich, dass ich die Bewertungskriterien sehr detailliert ausformulierte, um damit die KI zu instruieren. Das war äußerst aufwändig, sollte aber im Sinne transparenter Bewertungskriterien eigentlich eine Selbstverständlichkeit sein. Da ich im im Unterricht schon mündlich Kriterien benannt hatte, fiel die naheliegende Lösung, auch die Bewertungskriterien durch die KI erstellen zu lassen, in diesem Fall aus. Leider stellte sich die KI als äußerst milde und nachsichtig heraus. Selbst extrem kurze und unambitionierte Texte mit einer Vielzahl von der Lernstufe nicht angemessenen Fehlern wurden großzügig mit drei oder gar vier von fünf Sternen bewertet. Das, in Verbindung mit der Tatsache, dass das wiederholte Eintippen von verbesserten Textversionen des Schüler:innen schlicht zu viel Arbeit war, durchkreuzte mein Kalkül, nämlich: Formatives Feedback in der Breite nicht erst in der Korrektur der Klassenarbeit, wenn es aus Schüler:innensicht zu spät bzw. zu früh ist, sondern bereits im Vorfeld, also gerade rechtzeitig für die Klassenarbeit zu ermöglichen. Die übermäßig großzügige Bewertung ist auch insgesamt riskant, weil sie Schüler:innne falsche Sicherheit hinsichtlich der eigenen Kompetenzen vermittelt.

Vielleicht ist mir hier aber (zusätzlich) auch ein logischer Bruch in meiner Aufgabenstellung auf die Füße gefallen, nämlich der Versuch, einen als mündlich gedachten Text (Präsentation) schriftlich überprüfen zu lassen. Dies umsomehr, als die KI bevorzugt mit getipptem Text gefüttert wird, die Schüler:innen hier aber noch besondere Schwierigkeiten haben.

Insgesamt hat sich diese Unterrichtsreihe so nicht bewährt. Vermutlich lässt sich durch Feintuning an den Arbeitsaufträgen und den Prompts für die KI noch das eine oder andere verbessern, aber das Problem, dass der Zugang zur KI sich als schwierig erwies und das Feedback durch die KI nicht präzise genug auf die schriftlich formulierten Bewertungskriterien passte, dürfte grundsätzlicher Natur sein. Ein weiteres Hindernis war übrigens die begrenzte Erreichbarkeit der KI Tools während des Schultages. Beim Testen bei der abendlichen Unterrichtsvorbereitung zu Hause lief noch alles glatt. Am nächsten morgen in der Schule, als deutschlandweit tausende oder zehntausende Schüler:innen auf die KI zugriffen, luden die Seiten zäh oder gar nicht.

2. Beispiel: KI in der S2; Schüler:innen sollten verschiedene Positionen zur Religionskritik miteinander ins Gespräch bringen

Hier hatte ich den Arbeitsauftrag bewusst offen gewählt: Es sollte ein »Produkt« erstellt werden, das verschiedene Positionen zur Religionskritik miteinander ins Gespräch bringt; als Beispiele hatte ich Dialoge, Essays, Grafiken genannt und als KI-Tools hatte ich Chatbots freigeschaltet, die als die aus dem Unterricht bekannten Personen Feuerbach, Marx und Bonhoeffer auftraten, außerdem ein nicht weiter geprompteter Chat und eine Bilder-KI.

Der geplante Nutzen der KI bestand darin, Ideen mit der KI bepsrechen, also im Dialog verfeinern zu können, außerdem mit der Bild-KI ein Werkzeug zur Umsetzung grafischer Ideen zu haben. Die Persona-KIs waren als Recherchehilfen zu relevanten theologischen bzw. religionskritischen Positionen gedacht.

Es stellte sich heraus, dass die Schüler:innen durch die sehr offene Aufgabe möglicherweise überfordert waren und sich ausschließlich auf die Bilder-KI stürzten, und zwar mit Prompts, die sie unmittelbar aus eigenem Wissen und Ideen heraus formulierten, also ohne vorher die KI zu bemühen und dadurch zusätzliche Kenntnisse aufzutun. Die logische Option, sich von der KI mögliche Produkte vorschlagen zu lassen und diese Ideen im Gespräch (Chat) weiter verfeinern und auf die eigenen Möglichkeiten und Wünsche zuschneiden zu lassen, hat keine der Gruppen gewählt.

Gerade die Konzentration auf die Bilder-KI verschärfte das schon in der 7. Klasse erkannte Problem der Überlastung der KI. Es dauerte ewig, bis die Seite der KI überhaupt geladen war, Bilder wurden z.T. überhaupt nicht generiert. Ganz offensichtlich waren die von fobizz bereit gestellten Kapazitäten zum Zeitpunkt meiner Unterrichtsversuche nicht hinreichend. Im Nachhinein stellte sich heraus, dass einige Gruppen auf private Zugänge zur Gratisversion von ChatGPT ausgewichen waren – was u.a. wegen der Datenschutzproblematik explizit verboten war. Auch die Ergebnisse der Bilder-KI entsprachen nicht den Erwartungen. Unter besseren Bedingungen hätte man möglicherweise durch Experimentieren bessere Prompts schreiben können, dies scheiterte aber an der Überlastung der Seite.

Die Bereitstellung historischer KI-Personas muss im übrigen auch grundsätzlich kritisch gesehen werden. Der Nutzen liegt ja darin, authentische Aussagen der Personen zu beliebigen Fragen zu erhalten und noch Rückfragen stellen zu können. Originaltexte, die von der Lehrkraft ausgewählt sind und aus dem begrenzten Pool der verfügbaren Schriften stammen müssen, passen natürlich weniger genau auf die Interessenlage der Schüler:innen, sie sind aber tatsächlich authentisch. Inwiefern das auf Antworten einer KI zutrifft, ist noch offen, aber ganz bestimmt nicht im selben Maße wie bei »echten« Texten der »echten« Theolog:in.

Fazit:

Die Unterrichtsreihen haben allen Beteiligten Spaß gemacht und alle haben etwas gelernt. Häufig nicht unbedingt das, was intendiert war, sondern eher etwas zu den Begrenzungen der KI, aber auch das ist ja schon etwas. Für einen dauerhaften und routinierten Einsatz der KI im Unterricht muss ich noch fleißig an Prompts für die KI-Tools und an den Arbeitsaufträgen für die Schüler:innen schrauben. Das, was KI meines Erachtens im Unterricht leisten kann, nämlich die Schüler:innen in einer Auseinandersetzung um ein Thema zum Überdenken und Überarbeiten von Annahmen und Texten anzuleiten, ist in meinen beiden Unterrichtsreihen nicht geschehen.

Was fobizz leisten muss, ist die technische Verfügbarkeit der Tools zu erhöhen. Schon ohne KI leidet mediengestützter Unterricht unter der Ungewissheit des technisch reibungslosen Ablaufs, schon zu häufig muss Unterricht parallel in einer mediengestützten Variante und einer weiteren Variante für den Fall technischer Schwierigkeiten geplant werden – dies darf durch schwach dimensionierte KI-Kapazitäten nicht weiter verschärft werden.

You have no rights to post comments