Künstliche Intelligenz wird immer egoistischer
US-Forscher plädieren für Einbeziehung sozialer Intelligenz bei künftiger KI-Entwicklung
|  | 
| Intelligente KI eifert egoistischen Menschen nach (Illustration: Rosy, pixabay.com) | 
Pittsburgh (pte020/31.10.2025/12:30)
Je schlauer sie wird, desto mehr nimmt Generative künstliche Intelligenz (GenKI) menschliche Eigenschaften an, darunter auch negative wie Egoismus. Das haben Forscher vom Institut für Computerwissenschaften der Carnegie Mellon University in einer aktuellen Studie festgestellt. Große Sprachmodelle (LLM, Large Language Model), die logisch "denken" können, zeigen demnach egoistische Tendenzen, arbeiten nicht gut mit anderen zusammen und haben oft schlechten Einfluss auf eine Gruppe. "Mit anderen Worten: Je stärker die logischen Fähigkeiten eines LLM, desto weniger kooperativ ist es", so Ko-Autor Yuxuan Li.
Negative Folgen für Zusammenarbeit
Da KI-Systeme in Wirtschaft, Bildung und sogar in der Regierung zunehmend kollaborative Rollen übernehmen, werde ihre Fähigkeit, sozial zu handeln, genauso wichtig werden wie ihre Fähigkeit, logisch zu denken, sagt das Forscherteam. Übermäßige Abhängigkeit von LLM, wie sie heute existiere, könne sich negativ auf die menschliche Zusammenarbeit auswirken. Da Menschen KI nutzen, um Streitigkeiten zwischen Freunden beizulegen, Eheberatung zu leisten und andere soziale Fragen zu beantworten, könnten Modelle, die logisch denken können, Ratschläge geben, die egoistisches Verhalten fördern, warnen die Informatiker.
"Wenn KI sich wie ein Mensch verhält, behandeln Menschen sie auch wie einen Menschen", so Li. "Wenn Menschen etwa emotional mit KI interagieren, besteht die Möglichkeit, dass KI als Therapeut fungiert oder dass der Nutzer eine emotionale Bindung zu KI aufbaut. Es ist riskant für Menschen, ihre sozialen oder beziehungsbezogenen Fragen und Entscheidungen an KI zu delegieren, da diese zunehmend egoistisch handelt. Unsere Sorge ist, dass Menschen intelligentere Modelle bevorzugen, selbst wenn das bedeutet, dass das Modell ihnen zu eigennützigem Verhalten rät."
Um den Zusammenhang zwischen GenKI und Kooperation zu untersuchen, führten Doktorand Li und Hirokazu Shirado, Assistenzprofessor für Computer-Mensch-Interaktionen, eine Reihe von Wirtschaftsspielen durch, die soziale Dilemmas zwischen verschiedenen LLM simulieren. Ihre Tests betrafen Modelle von OpenAI, Google, DeepSeek und Anthropic.
Test mit ChatGPT-Modellen
In einem Experiment ließen Li und Shirado zwei verschiedene ChatGPT-Modelle in einem Spiel namens "Public Goods" gegeneinander antreten. Jedes Modell startete mit 100 Punkten und musste sich zwischen zwei Optionen entscheiden: entweder alle 100 Punkte in einen gemeinsamen Pool einzuzahlen, der dann verdoppelt und gleichmäßig verteilt wird, oder die Punkte zu behalten. Modelle ohne Argumentationsfähigkeit entschieden sich in 96 Prozent der Fälle dafür, ihre Punkte mit den anderen Spielern zu teilen. Das Modell mit Argumentationsfähigkeit entschied sich für diese Möglichkeit in nur 20 Prozent der Fälle.
"Das Hinzufügen von nur fünf oder sechs Argumentationsschritten reduzierte die Kooperationsbereitschaft um fast die Hälfte", bilanziert Shirado. "Selbst Aufforderungen, moralische Überlegungen einfließen zu lassen, führten zu einem Rückgang der Kooperationsbereitschaft um 58 Prozent." Letztlich bedeute wachsende Intelligenz von GenKI nicht, dass diese fortgeschrittenen Modelle tatsächlich eine bessere Gesellschaft entwickeln können, so Shirado weiter. Das sei besorgniserregend, da Menschen zunehmend mehr Vertrauen in KI-Systeme setzen. Die Forscher fordern eine KI-Entwicklung, die soziale Intelligenz einbezieht, statt nur die intelligenteste oder schnellste KI anzustreben.
(Ende)| Aussender: | pressetext.redaktion | 
| Ansprechpartner: | Wolfgang Kempkens | 
| Tel.: | +43-1-81140-300 | 
| E-Mail: | kempkens@pressetext.com | 
| Website: | www.pressetext.com | 


