KI-Chatbots können unter "Gehirnverfall" leiden
Tests der University of Texas in Austin: Training mit minderwertigen Daten hat fatale Folgen
![]() |
Fragezeichen: Schlecht trainierte KI ist desorientiert (Bild: Gerd Altmann, pixabay.com) |
Austin/Ithaca (pte004/05.11.2025/06:15)
Die "Denkfähigkeit" von KI-Chatbots nimmt ab. Sie produzieren mehr falsche Infos, wenn sie aus "minderwertigen Daten" wie Beiträgen in sozialen Medien lernen. Das hat Yang Wang von der University of Texas in Austin ermittelt. Der Beitrag ist auf der Preprint-Plattform arXiv der Cornell University erschienen. Obwohl er noch keiner formellen wissenschaftlichen Begutachtung unterzogen wurde, hat die Studie bereits große Aufmerksamkeit in der KI-Forschungslandschaft erregt.
Viele schlechte Daten
Die Fachleute haben getestet, wie sich "Daten von geringer Qualität" auf große KI-Sprachmodelle auswirken. In dem Zusammenhang bezieht sich "Daten von geringer Qualität" auf kurze und fragmentierte Texte, Inhalte mit sensationellem oder provokativem Material und Social-Media-Beiträge, die zwar beliebt sind, aber keine substanziellen Inhalte haben. Das Team hat solche Daten zusammengestellt und sie zum Trainieren Chatbots genutzt, darunter "Llama 3" von Meta und die "Qwen"-Reihe von Alibaba.
Ergebnis: KI-Modelle, die mit Daten geringer Qualität trainiert wurden, zogen häufig voreilige Schlussfolgerungen und lieferten irrelevante Antworten. Durch das Umgehen logischer Schlussfolgerungen generierten die Modelle oft Fake News und machten sogar Fehler bei Multiple-Choice-Fragen. Darüber hinaus zeigten KI-Modelle, die intensiv mit minderwertigen Daten trainiert wurden, stärkere negative Tendenzen und sogar psychopathische Verhaltensweisen. Dieses Phänomen beschreiben die Forscher als "KI-Gehirnverfall".
"Müll rein, Müll raus"
Anschließend haben die Forscher "hochwertige Daten" mit den minderwertigen Datensätzen für das Training gemischt. Schlussfolgerungsfähigkeiten der Bots wurden umso schlechter, je höher der Anteil minderwertiger Daten war. Das Team betont, dass dies das Grundprinzip der KI bestätigt: "Müll rein, Müll raus". Mit Unsinn gefüttert kann eine KI folglich nur Unsinn produzieren, denn selber denken kann sie nicht, nur Denkprozesse imitieren. Die Wiederherstellung der Höchstleistung einer KI, die aufgrund von Daten minderer Qualität unbrauchbare Antworten lieferte, erwies sich als schwierig.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


