Hightech

HIGHTECH

12.11.2019 - 11:34 | pressetext.redaktion
12.11.2019 - 10:40 | FH St. Pölten
12.11.2019 - 09:20 | AICHELIN Holding GmbH

BUSINESS

12.11.2019 - 11:10 | Heemann Vermögensverwaltung AG
12.11.2019 - 11:00 | Austrian Standards International - Standardisierung und Innovation
12.11.2019 - 06:15 | pressetext.redaktion

MEDIEN

12.11.2019 - 09:30 | Tools at Work Hard und Soft Vertriebs GmbH
12.11.2019 - 06:05 | pressetext.redaktion
11.11.2019 - 14:00 | Tools at Work Hard + Soft Vertriebsges.m.b.H.

LEBEN

12.11.2019 - 10:00 | IH-Communications
12.11.2019 - 09:00 | Hennrich.PR
12.11.2019 - 09:00 | ISM International School of Management
pte20191023002 Computer/Telekommunikation, Forschung/Technologie

Framework verspricht transparentere KI

Ansatz der North Carolina State University führt bei Objekterkennung nicht zu Leistungsabfall


Binäres: für Menschen oft nicht nachvollziehbar (Foto: geralt, pixabay.com)
Binäres: für Menschen oft nicht nachvollziehbar (Foto: geralt, pixabay.com)

Raleigh (pte002/23.10.2019/06:05) - Bei Künstlicher Intelligenz (KI) ist oft nicht wirklich klar, warum sie ihre Entscheidungen trifft - was sich spätestens bei Militär- und Sicherheitsanwendungen als ein echtes Problem darstellt. Forscher der North Carolina State University (NCSU) http://ncsu.edu haben ein neues Framework vorgeschlagen, um die Nachvollziehbarkeit von KI-Entscheidungen zu erleichtern. Denn im Prinzip liefert ein KI-System dadurch eine Erklärung mit. Bei Tests mit einem Objekterkennungs-System hat das keine Performance-Einbußen mit sich gebracht.

Interpretationshilfe

Das Besondere am neuen Framework ist laut Tianfu Wu, Professor für Computertechnik an der NCSU, dass das KI-Training auch die Interpretierbarkeit berücksichtigt. "Wenn ein KI-System mit unserem Framework beispielsweise lernt, wie es Objekte in Bildern erkennt, lernt es auch, das Zielobjekt im Bild zu lokalisieren und zu analysieren, was an dieser Lokalität die Zielobjektkriterien erfüllt", erklärt er. Diese Information wird dann zusammen mit dem Ergebnis ausgegeben, um für den Menschen interpretierbar zu machen, wie das Ergebnis zustande kam.

In einer Konzeptdemonstration haben die Forscher ihr Framework in ein breit genutztes Objekterkennungslverfahren, genannt "R-CNN", integriert. Dann haben sie die Lösung an zwei gängigen Benchmark-Datensätzen getestet. Diese Tests haben ergeben, dass die Nutzung des Interpretierbarkeits-Frameworks der Performance weder in punkto Genauigkeit noch Geschwindigkeit schadet.

Wichtige Transparenz

Eine transparente Nachvollziehbarkeit von KI-Entscheidungen ist wichtig, um diese auch rechtfertigen zu können - oder auch klar zu wissen, dass diese eigentlich nicht zu rechtfertigen sind, wenn beispielsweise wieder einmal eine fehlgeleitete KI gelernt hat, rassistisch zu sein, wie das erst vor Kurzem ein Kunstprojekt für die Gesichtserkennung demonstriert hat (pressetext berichtete: http://pte.com/news/20190917012 ).

Wu sieht in der aktuellen Arbeit einen wichtigen Schritt in Richtung einer wirklich transparenten KI. Allerdings hält er noch Weiterentwicklungen für nötig. Denn das Framework bringe die KI im Objekterkennungsfall bislang nur dazu, qualitative Informationen dazu anzuzeigen, was es für die Erkennungsmerkmale des Zielobjekts hält. "Wir arbeiten an Möglichkeiten, das quantitativ zu gestalten, indem wir einen Zuversichtswert in den Prozess einbauen."

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Thomas Pichler
Tel.: +43-1-81140-314
E-Mail: pichler@pressetext.com
Website: www.pressetext.com
|
|
98.206 Abonnenten
|
175.509 Meldungen
|
71.159 Pressefotos

IR-NEWS

12.11.2019 - 11:00 | KFM Deutsche Mittelstand AG
12.11.2019 - 09:30 | Erste Group Bank AG
12.11.2019 - 07:00 | Rosenbauer International AG
Top