ChatGPT und Co übertreiben bei Fachtexten
Wissenschaftliche Untersuchung von 4.900 generierten Beiträgen zeigt zu weit gefasste Ergebnisse
|
|
KI-Zusammenfassungen: Diese sind mit Vorsicht zu genießen (Bild: Katamaheen, pixabay.com)
|
Utrecht/Cambridge/London (pte002/15.05.2025/06:05)
Zusammenfassungen wissenschaftlicher Arbeiten durch KI-Sprachmodelle wie ChatGPT legen die Ergebnisse äußerst großzügig aus. Ihre Schlussfolgerungen gehen über den tatsächlichen Inhalt der Studien hinaus. In 73 Prozent aller Fälle haben das Uwe Peters von der Universität Utrecht sowie Benjamin Chin-Yee von der University of Cambridge und der Western University nachgewiesen.
Wunsch nach Genauigkeit
Die Forscher haben ChatGPT und DeepSeek getestet und Tausende von Chatbot-generierten Wissenschaftszusammenfassungen analysiert. Ergebnis: Die meisten Modelle liefern durchweg weiter gefasste Schlussfolgerungen als jene, die aus den Texten hervorgehen. Überraschenderweise verschärften Aufforderungen zur Genauigkeit das Problem, und neuere KI-Modelle schnitten schlechter ab als ältere. Bewertet worden ist, wie genau zehn führende Modelle Artikel aus renommierten Wissenschafts- und Medizinzeitschriften wie "Nature", "Science" und "Lancet" zusammenfassen.
Profitieren Sie von
unabhängigem Journalismus!
Lesen Sie mit pressetext Abo+ weiter und unterstützen Sie
Qualitätsberichterstattung für nur 1 EUR pro Woche!
Das Angebot beläuft sich auf 1 EUR pro Woche bzw. 49 EUR im Jahr
– und das, solange Sie wollen. Sie bleiben flexibel, denn Ihr pressetext Abo+
passt sich an Ihre Lesegewohnheiten an und ist jederzeit kündbar
