pte20251124002 in Forschung

KI-Chatbots sind keine guten Lehrkräfte

Test des Stevens Institute of Technology - Schüler glauben ihnen, auch wenn sie Fehler machen


Interaktion mit KI-Chatbot: führt Studenten oft in die Irre (pixabay.com, Startup Stock Photos)
Interaktion mit KI-Chatbot: führt Studenten oft in die Irre (pixabay.com, Startup Stock Photos)

Hoboken (pte002/24.11.2025/06:00)

KI-Chatbots zur Unterstützung des an chronischem Lehrermangel leidenden Bildungssystems eignen sich nur bedingt. Denn große Sprachmodelle wie ChatGPT sind nicht unfehlbar. Die Gefahr, dass diese Schülern zuweilen Unsinn beibringen, ist groß, so Tiffany Li vom Stevens Institute of Technology. Die Expertin hat eine systematische Studie durchgeführt, um herauszufinden, inwieweit Schüler sachlich falsche Infos von Chatbots erkennen und wo und warum sie dabei Probleme haben.

Absichtliche Fehler

Zunächst haben Li und ihr Team einen pädagogischen Chatbot entwickelt, der die Schüler in die Geheimnisse der Statistik einführt. Sie programmierten ihn so, dass einige seiner Antworten fehlerhaft waren, um zu sehen, ob die Schüler das bemerkten. Anschließend rekrutierte das Team 177 Teilnehmer, darunter Studenten und ältere Statistikinteressierte.

Während die Teilnehmer Übungsaufgaben bearbeiteten, interagierten sie nach eigenem Ermessen mit dem Chatbot. Sie erhielten gleichzeitig Zugang zu zusätzlichen Ressourcen wie einem Online-Lehrbuch, um die Antworten des Chatbots überprüfen zu können.

Falschinfos unentdeckt

Die Teilnehmer wurden angewiesen, alle Fehler, die ihnen bei den Antworten des Chatbots auffielen, zu melden. Damit sie sich anstrengten, Fehler zu erkennen, erhielten sie einen Anreiz. "Wir haben die Teilnehmer mit einem kleinen Geldbonus dazu ermutigt, Probleme zu melden", sagt Li. Das Team hat festgestellt, dass die Lernenden trotz des Anreizes und der Tools zur Überprüfung der Antworten im Durchschnitt nur 15 Prozent der Chatbot-Fehler erkannten.

Die Teilnehmer akzeptierten die Antworten der Chatbots vor allem dann, wenn sie mit dem Thema noch nicht vertraut waren, auch wenn sie falsch waren. "Chatbots können sehr eloquent und selbstbewusst klingen, was sie sehr kompetent erscheinen lässt - und das schafft Vertrauen", erklärt Li. Was fatale Folgen haben kann. Deshalb empfiehlt sie, Chatbots beim personalisierten Lehren erst dann einzusetzen, wenn die Studenten mit einem Thema bereits vertraut sind.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Wolfgang Kempkens
Tel.: +43-1-81140-300
E-Mail: kempkens@pressetext.com
Website: www.pressetext.com
|