Hightech

HIGHTECH

03.06.2020 - 11:53 | pressetext.redaktion
03.06.2020 - 09:35 | Schneider Electric GmbH
03.06.2020 - 08:15 | Innovation Network Austria GmbH

MEDIEN

03.06.2020 - 09:05 | CHI unique
03.06.2020 - 09:00 | Tools at Work Hard + Soft Vertriebsges.m.b.H.
03.06.2020 - 06:10 | pressetext.redaktion

LEBEN

03.06.2020 - 06:00 | pressetext.redaktion
02.06.2020 - 22:00 | Verein "Spielerhilfe"
02.06.2020 - 13:00 | Radstadt Tourismus
pte20191023002 Technologie/Digitalisierung, Forschung/Entwicklung

Framework verspricht transparentere KI

Ansatz der North Carolina State University führt bei Objekterkennung nicht zu Leistungsabfall


Binäres: für Menschen oft nicht nachvollziehbar (Foto: geralt, pixabay.com)
Binäres: für Menschen oft nicht nachvollziehbar (Foto: geralt, pixabay.com)

Raleigh (pte002/23.10.2019/06:05) - Bei Künstlicher Intelligenz (KI) ist oft nicht wirklich klar, warum sie ihre Entscheidungen trifft - was sich spätestens bei Militär- und Sicherheitsanwendungen als ein echtes Problem darstellt. Forscher der North Carolina State University (NCSU) http://ncsu.edu haben ein neues Framework vorgeschlagen, um die Nachvollziehbarkeit von KI-Entscheidungen zu erleichtern. Denn im Prinzip liefert ein KI-System dadurch eine Erklärung mit. Bei Tests mit einem Objekterkennungs-System hat das keine Performance-Einbußen mit sich gebracht.

Interpretationshilfe

Das Besondere am neuen Framework ist laut Tianfu Wu, Professor für Computertechnik an der NCSU, dass das KI-Training auch die Interpretierbarkeit berücksichtigt. "Wenn ein KI-System mit unserem Framework beispielsweise lernt, wie es Objekte in Bildern erkennt, lernt es auch, das Zielobjekt im Bild zu lokalisieren und zu analysieren, was an dieser Lokalität die Zielobjektkriterien erfüllt", erklärt er. Diese Information wird dann zusammen mit dem Ergebnis ausgegeben, um für den Menschen interpretierbar zu machen, wie das Ergebnis zustande kam.

In einer Konzeptdemonstration haben die Forscher ihr Framework in ein breit genutztes Objekterkennungslverfahren, genannt "R-CNN", integriert. Dann haben sie die Lösung an zwei gängigen Benchmark-Datensätzen getestet. Diese Tests haben ergeben, dass die Nutzung des Interpretierbarkeits-Frameworks der Performance weder in punkto Genauigkeit noch Geschwindigkeit schadet.

Wichtige Transparenz

Eine transparente Nachvollziehbarkeit von KI-Entscheidungen ist wichtig, um diese auch rechtfertigen zu können - oder auch klar zu wissen, dass diese eigentlich nicht zu rechtfertigen sind, wenn beispielsweise wieder einmal eine fehlgeleitete KI gelernt hat, rassistisch zu sein, wie das erst vor Kurzem ein Kunstprojekt für die Gesichtserkennung demonstriert hat (pressetext berichtete: http://pte.com/news/20190917012 ).

Wu sieht in der aktuellen Arbeit einen wichtigen Schritt in Richtung einer wirklich transparenten KI. Allerdings hält er noch Weiterentwicklungen für nötig. Denn das Framework bringe die KI im Objekterkennungsfall bislang nur dazu, qualitative Informationen dazu anzuzeigen, was es für die Erkennungsmerkmale des Zielobjekts hält. "Wir arbeiten an Möglichkeiten, das quantitativ zu gestalten, indem wir einen Zuversichtswert in den Prozess einbauen."

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Thomas Pichler
Tel.: +43-1-81140-314
E-Mail: pichler@pressetext.com
Website: www.pressetext.com
|
|
98.363 Abonnenten
|
180.256 Meldungen
|
73.458 Pressefotos
Top