Lösungen finden und dabei das Verständnis verlieren – das sind die größten Gefahren von KI im Bildungsbereich
KI im Bildungswesen. Zwei Semester lang experimentierten Corvinus-Lehrer in ihren Mathematikkursen mit ChatGPT-ähnlicher künstlicher Intelligenz: Ihre Schüler konnten die ganze Zeit über KI für ihre Aufgaben und sogar für ihre Prüfungen verwenden. Die Ergebnisse überraschten beide Lehrer: Die Motivation der Schüler und das allgemeine Wissensniveau der Gruppe nahmen ab, und soziale Ungleichheiten zwischen den Schülern wurden deutlicher.
KI in der Bildung
Künstliche Intelligenz könnte die Rahmenbedingungen für Bildung schon bald völlig verändern und dieser Prozess wird erhebliche negative Auswirkungen auf die gängige Art und Weise des Wissenserwerbs haben. Das sehen die Corvinus-Lehrer Márton Benedek und R. Balázs Sziklai als Hauptbedrohung der KI in der Bildung, da sie ihren Studierenden zwei Semester lang erlaubt haben, Tools wie ChatGPT in ihren Mathematikkursen uneingeschränkt zu verwenden. Die beiden Dozenten hatten sich durch die Erlaubnis zur Verwendung von KI eine Steigerung der Motivation der Studierenden erhofft, erzielten jedoch den gegenteiligen Effekt:
Die Guten gewinnen nicht
„Schlechte Lerner waren mit der einfacheren Art der Problemlösung zufrieden, während gute Lerner erkannten, dass sie mit weniger Aufwand dieselben Ergebnisse erzielen konnten, und sich daher nicht mehr mit traditionellen Lernmethoden beschäftigten“, sagt Márton Benedek und fügt hinzu, dass beim Lösen von Problemen mit KI die wichtigen Phasen des Schaffens, des Fehlermachens und des Verstehens im Lernprozess verloren gingen.
Im Frühjahr 2023 – als die Fakultätsmitglieder von Corvinus zum ersten Mal einen KI-Kurs belegten – gab es ChatGPT erst seit wenigen Monaten, und nur wenige Studierende nutzten das Tool. Doch in ihrem Kurs ein Jahr später nutzten fast alle Studierenden ChatGPT-ähnliche Plattformen. Innerhalb eines Jahres war der Einsatz von KI so weit verbreitet und die Tools so ausgefeilt, dass die Mehrheit der Studierenden ihnen blind vertraut hatte, ohne auch nur zu versuchen, den Prozess zu verstehen, der zur Lösung der Aufgaben führte.
„Künstliche Intelligenz hat den Prozess der Problemlösung ersetzt, obwohl im Prozess des Wissenserwerbs das Verständnis des Prozesses viel wichtiger gewesen wäre als die Lösung selbst“, erklärt Balázs R. Sziklai. Er stellte fest, dass die meisten Studenten, die die Prüfung mit perfekter Punktzahl dank KI bestanden hatten, keine Ahnung hatten, wie sie zwischen 0 % und 100 % abgeschnitten hatten, bis sie ihre Punktzahl erhielten.
Bevorzugt werden begabte Studierende
Darüber hinaus kann der intensive Einsatz von KI nicht nur das allgemeine Wissensniveau und die Motivation der Studierenden verringern, sondern auch soziale Ungleichheiten zwischen den Studierenden verschärfen. Tatsächlich können wohlhabendere Studierende, die Zugriff auf fortgeschrittenere Abonnementversionen von ChatGPT-ähnlichen Tools haben, viel bessere Abgaben leisten als ihre Kommilitonen, die die kostenlosen Versionen verwenden.
Trotz ihrer negativen Erfahrungen sehen Márton Benedek und Balázs Sziklai R. die Lösung nicht darin, KI-basierte Tools zu verbieten, sondern halten es für notwendig, den Einsatz von KI-basierten Tools in der Bildung einzuschränken: „Das ideale Ziel wäre unserer Meinung nach, dass die Schüler diese Tools verwenden können und sich gleichzeitig der Grundlage bewusst sind, auf der ChatGPT eine Lösung erstellt, und dass sie in der Lage sind, von der KI gemachte Fehler bei der Lösung einer Aufgabe zu erkennen und zu korrigieren. Wir haben festgestellt, dass ein Schüler, der einfach die START-Taste drückte und ChatGPT vollständig vertraute, die Schwere des Problems nicht einschätzen konnte und sich nicht sicher war, ob ChatGPT die richtige Lösung lieferte“, fügt Balázs Sziklai hinzu.
Lesen Sie auch:
- AI Summit Budapest 2024: Innovationen im Bereich künstliche Intelligenz ziehen Rekordbesucherzahlen an – Bericht zur Veranstaltung
- Ungarn hat Vorsitz im European AI Board
Ausgewähltes Bild: depositphotos.com