Chatbots nehmen es mit Ethik nicht so genau
Forscher der Brown University belegen zahlreiche Verstöße bei Antworten auf psychische Fragen
![]() |
Zainab Iftikhar: Informatikerin enlarvt KI-Verstöße gegen Ethik (Foto: brown.edu) |
Providence (pte004/24.10.2025/06:05)
Laut einer Studie der Brown University verstoßen KI-Chatbots bei Fragen zur psychischen Gesundheit systematisch gegen ethische Standards. Dazu gehören der unsachgemäße Umgang mit Krisensituationen, irreführende Antworten und die Schaffung eines falschen Gefühls der Empathie gegenüber den Nutzern. Das tun sie sogar, wenn sie aufgefordert werden, evidenzbasierte Psychotherapie-Techniken anzuwenden, kritisieren die Wissenschaftler.
Standards für KI gefordert
"Wir fordern, dass ethische, pädagogische und rechtliche Standards für IK-Berater geschaffen werden - Standards, die die Qualität und Strenge der Betreuung widerspiegeln, die für eine von Menschen durchgeführte Psychotherapie erforderlich ist", heißt es. Studienleiterin Zainab Iftikhar wollte herausfinden, ob solche Strategien dazu beitragen können, dass Modelle bei der Anwendung in der Praxis ethische Grundsätze einhalten.
"Eingabeaufforderungen sind Anweisungen, die dem KI-Modell gegeben werden, um sein Verhalten zur Erfüllung einer bestimmten Aufgabe zu steuern. Sie helfen dabei, die Ausgabe des Modells auf der Grundlage seines bereits vorhandenen Wissens und seiner gelernten Muster zu steuern. Ein Nutzer könnte dem Modell beispielsweise sagen: 'Handle wie ein kognitiver Verhaltenstherapeut, um mir zu helfen, meine Gedanken neu zu strukturieren'", präzisiert Iftikhar.
Verstöße in fünf Kategorien
Die Experten haben simulierte Chats, die auf originalen menschlichen Beratungs-Chats basieren, von drei zugelassenen klinischen Psychologen bewerten lassen, um Verstöße gegen ethische Grundsätze zu identifizieren. Sie deckten fünf häufig wiederkehrende Verstöße auf: Die Bots dominieren die Gespräche und verstärken falsche Überzeugungen der Nutzer; sie ignorieren die Lebenserfahrungen der Menschen und empfehlen oft Einheitslösungen; sie verwenden Ausdrücke wie "Ich verstehe dich", um eine scheinheilige Verbindung zwischen Nutzer und dem herzustellen; sie zeigen geschlechtsspezifische, kulturelle oder religiöse Vorurteile und sie verweigern ihre Hilfe bei besonders sensiblen Themen wie Suizidphantasien.
"Für menschliche Therapeuten gibt es Aufsichtsgremien und Mechanismen, mit denen sie für Fehlverhalten haftbar gemacht werden können. Wenn KI-Berater jedoch solche Verstöße begehen, gibt es keine etablierten regulatorischen Rahmenbedingungen", sagt Iftikhar. Die Ergebnisse bedeuteten jedoch nicht zwangsläufig, dass KI von der psychischen Gesundheitsbehandlung ausgeschlossen werden sollte. Jedoch müsste sie sorgfältiger darauf vorbereitet werden.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


