Hightech

HIGHTECH

08.04.2020 - 06:15 | pressetext.redaktion
07.04.2020 - 14:00 | x-tention Informationstechnologie GmbH
07.04.2020 - 11:45 | ESET Deutschland GmbH

MEDIEN

08.04.2020 - 06:05 | pressetext.redaktion
07.04.2020 - 15:30 | Pogastro Switzerland
07.04.2020 - 13:30 | pressetext.redaktion
pte20150708015 Forschung/Entwicklung, Technologie/Digitalisierung

Initiative will Menschen vor "böser KI" schützen

Future of Life Institute fördert 37 verschiedene Forschungsprojekte


KI-Zukunft: ''Terminator'' als Horrorszenario (Foto: flickr.com/Dick Johnson)
KI-Zukunft: ''Terminator'' als Horrorszenario (Foto: flickr.com/Dick Johnson)

Boston (pte015/08.07.2015/12:00) - Das Future of Life Institute (FLI) http://futureoflife.org will mit einer eigenen Forschungsinitiative sicherstellen, dass die Künstliche Intelligenz (KI) nicht eines Tages die Menschheit zerstört. Wie das Institut nun wissen lässt, sollen insgesamt 37 verschiedene Forschungsprojekte weltweit finanziell unterstützt werden, die sich der Aufgabe verschrieben haben, die KI-Entwicklung zum Wohle der Menschheit in ihre Schranken zu weisen. Die Fördergelder hierfür kommen unter anderem vom US-Tech-Mogul Elon Musk und der technikorientierten Stiftung Open Philanthropy Project http://openphilanthropy.org .

Investition in KI-Kontrolle

"Es gibt einen Wettlauf zwischen der wachsenden Macht der Technologie und der wachsenden Weisheit, wie wir die Macht kontrollieren", zitiert "BBC News" FLI-Präsident Max Tegmark. Bislang sei dieser Wettlauf ausschließlich von Investments angetrieben worden, die darauf abzielten, die Technik schlauer zu machen. Die größten Investoren in diesem Bereich sind Google, Facebook und der chinesische Internet-Gigant Baidu. Das nun initiierte Forschungsprogramm sei hingegen das erste, das auch in die Kontrolle der KI investiere, so Tegmark.

"Es gibt genug Gründe, um zu glauben, dass die unregulierte und zwanglose Entwicklung im KI-Sektor eine Reihe signifikanter Gefahren mit sich bringt", betont Nick Bostrom, Leiter des Future of Humanity Institute (FHI) an der University of Oxford http://fhi.ox.ac.uk . Diese könnte etwa leicht von "bösen Buben" wie verantwortungslosen Regierungen missbraucht werden. "Wir müssen uns auf die strategische Implementierung von leistungsfähigen KI-Systemen fokussieren und Regeln aufstellen, mit denen sich die potenziellen Risiken dieser Technologien entschärfen lassen", meint der FHI-Experte.

Unterschiedliche Projekte

Eine ähnlich kritische Haltung in Bezug auf die KI-Entwicklung nimmt auch der bekannte Technologie-Guru Elon Musk ein. "Ich glaube all diesen KI-Experten, wenn sie sagen, wie wichtig es ist, die Entwicklung in gewisse Schranken zu verweisen und habe deshalb zehn Mio. Dollar gespendet, um Forschungsprojekte zu fördern, die darauf abzielen, die KI nur zum Wohle der Menschheit einzusetzen", erklärt der Chef von Tesla Motors.

Mehr als 300 Forschungsgruppen haben sich seitdem für die finanziellen Unterstützungen beworben. Die FLI hat daraus 37 Projekte ausgewählt, die sich ganz unterschiedlichen Aspekten widmen. Dabei geht es beispielsweise um die Frage, wie man KI-Systemen ethisches Denken und Handeln beibringen kann oder wer im Fall eines durch selbstfahrende Autos oder Drohnen angerichteten Sachschadens haftbar gemacht werden kann.

(Ende)
Aussender: pressetext.redaktion
Ansprechpartner: Markus Steiner
Tel.: +43-1-81140-317
E-Mail: steiner@pressetext.com
Website: www.pressetext.com
|
|
98.334 Abonnenten
|
178.898 Meldungen
|
72.859 Pressefotos

IR-NEWS

07.04.2020 - 18:00 | CA Immobilien Anlagen AG
07.04.2020 - 11:45 | United Labels AG
07.04.2020 - 09:00 | Ahlers AG
Top