KI ist nur so gut wie ihr vorheriges Training
Wissenschaftler der EPFL warnen vor Vorurteilen und der massiven Verzerrung von Informationen
![]() |
Binärcode: KI kann die Unwahrheit sagen (Bild: Gerd Altmann, pixabay.com) |
Lausanne (pte003/26.05.2025/06:00)
Künstliche Intelligenz (Gen KI) ist nur so gut, objektiv und wahrheitsgemäß wie die Daten, mit denen sie trainiert worden ist, so Forscher der Eidgenössischen Technischen Hochschule Lausanne (EPFL). Das sei extrem wichtig, weil insbesondere ChatGPT zunehmend für Einstellungsentscheidungen, die Prüfung von Hypothekenanträgen und zur Gesichtserkennung eingesetzt wird.
KI nicht blind vertrauen
"Der verantwortungsvolle Einsatz von KI bedeutet, die Nutzer dazu anzuhalten, die von diesen Programmen erstellten Inhalte auf ihre Richtigkeit, Objektivität, Zuverlässigkeit und Übereinstimmung mit dem Urheberrecht zu überprüfen. Die Verantwortung für die Inhalte liegt letztendlich bei den Nutzern", sagt Forschungsleiter Olivier Crochat.
Letztlich läge die Verantwortung für den Einsatz von KI zwar bei den Nutzern, aber es könnten und sollten Regulierungsmechanismen eingeführt werden, um das Risiko einer vorsätzlichen oder versehentlichen missbräuchlichen Nutzung einzudämmen, ähnlich wie bei der Sicherung von Schusswaffen oder der Kindersicherung von Medikamentenflaschen, ergänzt EPFL-Kollegin Sabine Süsstrunk.
"Bewährte Strategien wie Zertifizierung, Regulierung und Aufklärung sind erforderlich, um eine akzeptable Mindestleistung zu gewährleisten, Verantwortlichkeiten zu klären und das öffentliche Bewusstsein zu schärfen", unterstreicht die Wissenschaftlerin.
EU-Gesetz ein erster Schritt
"Die meisten KI-Programme werden von gewinnorientierten Unternehmen entwickelt und gehostet, die einen Teil der Verantwortung auf die Nutzer abwälzen. Das wirft ethische und rechtliche Fragen hinsichtlich der Rolle auf, die soziale Werte in der KI-Governance spielen sollten", wirft EPFL-Forscher Touradj Ebrahimi ein. Derzeit gebe es keine klare, allgemein akzeptierte Definition, obwohl der AI Act der EU mit seinen sieben Grundsätzen in die richtige Richtung gehe.
Die Anwendung sei viel leichter gesagt als getan, insbesondere wenn Vorurteile ins Spiel kommen, seien sie ideologischer, politischer, religiöser, rassistischer, geschlechtsspezifischer oder allgemeiner kognitiver Natur. "Vorurteile sind nichts Neues. Als Menschen sind wir voller Vorurteile. Wenn wir dieses Problem nicht beheben, wird es weiterbestehen, und sobald es in großem Maßstab verstärkt wird, könnte es katastrophale Folgen haben", schließt Crochat.
(Ende)Aussender: | pressetext.redaktion |
Ansprechpartner: | Wolfgang Kempkens |
Tel.: | +43-1-81140-300 |
E-Mail: | kempkens@pressetext.com |
Website: | www.pressetext.com |