KI-Tools können die Polizei in die Irre führen
Forscher der University of Queensland mahnen: Erfahrene Beamte sind als Korrektiv unbedingt nötig
![]() |
Fans im Stadion: KI kann sich bei Beurteilung von Anhängern irren (Foto: tookapic, pixabay.com) |
Brisbane/London (pte003/05.03.2026/06:05)
KI-Tools, die große Mengen an Infos verarbeiten und auf dieser Basis Empfehlungen für den nächsten Schritt geben, können die Polizeiarbeit effektiver machen. In einer solchen Situation handeln Beamte meist nach Bauchgefühl, das wiederum entscheidend geprägt ist von bisherigen Erfahrungen und einer entsprechenden Ausbildung. Doch alle Faktoren lassen sich oftmals so nicht berücksichtigen, die Forscher der University of Queensland mahnen zur Vorsicht.
KI-Tools machen Fehler
Sobald menschliches Urteilsvermögen durch automatisierte Vorhersagen ersetzt werde, so die Experten, kann der Wert der traditionellen polizeilichen Logik, bei der Zusammenhänge hergestellt werden, verloren gehen. Es gebe zahlreiche Beispiele dafür, dass KI-Tools falsche Personen, falsche Orte oder falsche Risiken gemeldet haben, was wiederum zu falschen Entscheidungen geführt habe.
So hat beispielsweise ein Sonderausschuss des britischen Unterhauses kürzlich schwerwiegende Mängel bei der Verwendung des KI-Assistenten Microsoft Copilot durch die Polizei von West Midlands aufgezeigt, als diese im November vergangenen Jahres israelische Fans des Fußballclubs Maccabi Tel Aviv daran hinderte, zu einem Europa-League-Spiel gegen Aston Villa nach Birmingham zu reisen.
Spiel hat nie stattgefunden
Die der Entscheidung zugrunde liegenden Infos über angebliche Ausschreitungen von Maccabi-Fans bei vergangenen Spielen basierten auf ungenauen Daten, die von Copilot generiert wurden. So berief sich die KI auf ein Spiel zwischen dem israelischen Verein und West Ham United, das nie stattgefunden hat. "Infos, die die Maccabi-Fans als hohes Risiko darstellten, wurden ohne angemessene Prüfung als glaubwürdig angesehen", so die Vorsitzende des Ausschusses, Karen Bradley.
Auch das von der Polizei in der britischen Stadt Durham eingesetzte "Harm Assessment Risk Tool" hat Mängel. Es soll die gefährlichsten Täter identifizieren, überschätzt allerfings oft die Rückfallwahrscheinlichkeit und neigt zu Diskriminierung. Und die inzwischen eingestellte "Gang Matrix" der Londoner Metropolitan Police wurde vom Information Commissioner's Office kritisiert, da sie junge schwarze Männer wegen einer fehlerhaften Bewertung oft zu Unrecht als hochriskant einstufte.
"Unkritisches Vertrauen in KI birgt das Risiko, bestehende Vorurteile zu verstärken, was sich unverhältnismäßig stark auf die ärmsten Bevölkerungsgruppen und Minderheiten auswirkt", so die Forscher. Die KI-gestützte Entscheidungsfindung funktioniere am besten, wenn Polizeibeamte ihre operative Erfahrung mit KI-gestützten Erkenntnissen kombiniere. Dann könnten diese Tools eine wertvolle Hilfe bei der Bekämpfung von Kriminalität sein.
(Ende)| Aussender: | pressetext.redaktion |
| Ansprechpartner: | Wolfgang Kempkens |
| Tel.: | +43-1-81140-300 |
| E-Mail: | kempkens@pressetext.com |
| Website: | www.pressetext.com |


