KI lernt komplexe Sprachregeln beim Lesen
Regeln ohne Vorkenntnisse hergeleitet - FAU-Forscher stützen Theorie der kognitiven Linguistik
![]() |
KI: Algorithmus lernt komplexe Sprachregeln beim Lesen (Bild: NPXL_Studio, pixabay.com) |
Erlangen/Nürnberg (pte016/11.11.2025/12:30)
KI-Modelle können inzwischen Regeln der menschlichen Sprache herleiten, ohne dass sie mit expliziten Infos über Grammatik und Wortklassen versorgt werden. Das haben Forscher der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) in einem Experiment nachgewiesen. Details sind bei "Uche Onyekpe & Vasile Palade, Springer" nachzulesen.
Rekurrentes neuronales Netz
Die Experten stützen damit die Theorie der kognitiven Linguistik, nach der das Verständnis für syntaktische Konstruktionen nicht angeboren ist, sondern beim Sprachgebrauch erlernt wird. Trainiert worden ist ein rekurrentes neuronales Netz mit dem Roman "Gut gegen Nordwind" des österreichischen Schriftstellers Daniel Glattauer. Die Aufgabe: Nach der Eingabe von jeweils neun Wörtern sollte das folgende zehnte Wort im Text vorhergesagt werden.
"Die KI hat in einem bemerkenswerten Anteil der Fälle richtig gelegen. Das ist beeindruckend, denn man muss bedenken, dass es hier wirklich um das exakte Wort ging, nicht um eines mit ähnlicher Bedeutung", so FAU-Neurowissenschaftler Patrick Krauss. Vergleichbare Ergebnisse lieferte ein zweites neuronales Netz, das mit dem englischsprachigen Roman "Per Anhalter durch die Galaxis" von Douglas Adams trainiert wurde, konstatiert der Forscher.
Eigenständige Gruppierungen
Damit die KI hat die Sätze nicht einfach auswendig lernen und vervollständigen konnte, bekamen die Modelle für ihren Test nur Textpassagen, die sie im Training nicht gelesen hatten. Krauss: "Rekurrente neuronale Netze sind in sogenannten bidirektionalen Long-Short-Term-Memory-Schichten organisiert. Diese Schichten funktionieren wie ein Gedächtnis und geben uns einen Einblick in die verschiedenen Zwischenstände des Verarbeitungsprozesses."
Erstaunlich: Die Sprachmodelle begannen Schicht für Schicht, die Eingabesequenzen, also die neun aufeinanderfolgenden Wörter, um spezielle Wortklassen zu gruppieren. Am Ende konnten sie mit einer hohen Wahrscheinlichkeit vorhersagen, ob als zehntes Wort beispielsweise ein Verb, ein Nomen oder ein Adjektiv folgt - obwohl sie keinerlei Infos zur Klassifikation von Sprache besaßen. Die Studie bietet damit die Basis zur Verbesserung von Sprachmodellen.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Florian Fügemann |
| Tel.: | +43-1-81140-313 |
| E-Mail: | fuegemann@pressetext.com |
| Website: | www.pressetext.com |


