1.4.17

 

Moral für Maschinen - Wie Autos und Algorithmen ticken sollen

Ein Roboter darf einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird - so lautet das erste "Robotergesetz" des Science-Fiction-Autors Isaac Asimov. Zweitens: Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen. Und als drittes Gesetz postulierte Asimov: Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt. Die "Robotergesetze" sind mittlerweile fast 70 Jahre alt. Und sie könnten schon bald im Alltag relevant werden. Lukas Plank hat sich bei Experten umgehört, warum Künstliche Intelligenzen ethischen Normen folgen sollten - und welche Herausforderungen damit verbunden sind.

Ö1

Es ist zumindest denkbar, dass Programme und Roboter in naher Zukunft über Leben und Tod entscheiden - im Krieg sowieso, aber vielleicht auch auf der Straße. Wissenschafterinnen und Wissenschafter versuchen nun, Künstliche Intelligenz mit ethischen Prinzipien auszurüsten. Aber so einfach dürfte die Lösung nicht werden, vor allem, wenn die Maschinen in ein Entscheidungsdilemma kommen. Lukas Plank mit Beispielen.

Ö1

Comments: Kommentar veröffentlichen

<< Home

This page is powered by Blogger. Isn't yours?