Befragungen: Roboter liefern bessere Ergebnisse
Zeugen reagieren häufig nur auf Falschinformationen von Menschen
![]() |
Unfall: Zeugen erinnern sich unterschiedlich (Foto: pixelio.de, Rainer Sturm) |
Starkville (pte006/08.02.2013/10:30) Forscher der Mississippi State University http://msstate.edu haben nachgewiesen, dass es einen Unterschied macht, ob die Befragung eines Zeugen durch einen Menschen oder durch einen Roboter durchgeführt wird. Bereits die Auswahl der Worte beim Stellen einer Frage kann die Antwort beeinflussen.
Wahrnehmung unterschiedlich
Geht es um einen Autounfall, macht es einen Unterschied, ob nach einem Zusammenprall oder zum Beispiel nach einem Zusammenstoß gefragt wird. Ist von einem Zusammenprall die Rede, neigen die Zeugen dazu, sich an höhere Geschwindigkeiten und einen größeren Schaden zu erinnern. Eine Lösung dieses Problems könnte die Befragung durch einen Roboter sein.
Das Team um Cindy Bethel zeigte 100 "Zeugen" eine Abfolge von Bildern, in denen ein Mann Geld und einen Taschenrechner aus einer Schublade stiehlt. Dabei gibt er vor, einen Sessel zu reparieren. In einem nächsten Schritt wurden die Zeugen in vier Gruppen aufgeteilt und danach entweder von einem Menschen oder einem kleinen NAO-Roboter befragt, was sie gesehen hatten. Kontrolliert wurden diese Befragungen von einer Person, die nicht zu sehen war.
Andere Reaktion auf Roboter
Zwei Gruppen wurden identische Fragen gestellt, einmal von einem menschlichen Interviewer und einmal von einem Roboter. Dabei wurden falsche Behauptungen über den Vorfall gemacht. Objekte, die nicht vor Ort gewesen waren, wurden zum Beispiel erwähnt und später nach ihnen gefragt. Bei der folgenden Befragung durch einen Menschen sank die Genauigkeit der Erinnerungen um 40 Prozent im Vergleich mit jenen Teilnehmern, die keine falschen Informationen erhalten hatten. Falsche Angaben durch den Roboter hatten dagegen keine Folgen.
"Die Teilnehmer wurden durch das, was der Roboter sagte, nicht beeinflusst. Die Texte waren in beiden Fällen identisch. Wir ersuchten die menschlichen Interviewer, auch so roboterähnlich wie möglich zu sein", so Bethel. Die Ergebnisse der Studie werden Anfang März auf der Human-Robot-Interaction-Konferenz http://humanrobotinteraction.org/2013 in Tokio präsentiert.
Bilge Mutlu von der University of Wisconsin-Madison http://wisc.edu hält es für möglich, dass Roboter den Fehlinformationseffekt nicht auslösen, da sie dem Menschen einfach nicht vertraut sind und daher auch keine Informationen aus ihrem Verhalten abgeleitet werden können. "Wir wissen viel über Menschen, aber weniger über Roboter." Vom Fehlinformationseffekt sind laut Deborah Eakin, einer Studienautorin, vor allem auch Kinder betroffen. Bethels Ziel ist es, Kinder mit der Hilfe von Robotern zu befragen.
(Ende)Aussender: | pressetext.redaktion |
Ansprechpartner: | Michaela Monschein |
Tel.: | +43-1-81140-300 |
E-Mail: | monschein@pressetext.com |
Website: | www.pressetext.com |