Kurze Bytes: Je mehr wir uns mit künstlicher Intelligenz und verwandten Technologien weiterentwickeln, müssen wir einige komplexe ethische Probleme lösen. Ein ähnliches Dilemma besteht bei selbstfahrenden Autos und wie sie sich bei unvermeidlichen Unfällen verhalten sollen. Sollten sie auf der Straße mehr Menschen töten, um die Insassen zu retten? Oder sollten sie andere auf der Straße schützen, indem sie das Leben der Insassen opfern?

Jedes große Automobilunternehmen bereitet seine Artillerie mit der Technologie vor, die es ihm ermöglicht, autonome Fahrzeuge herzustellen. Sogar Unternehmen wie Google und Apple stellen Ingenieure und Designer ein, um ihr "nächstes großes Produkt" zu entwickeln.

Selbstfahrende Autos werden in Zukunft die Straßen dominieren, und wie die Tests zeigen, treffen die autonomen Fahrzeuge zusätzliche Sicherheitsvorkehrungen. Den Berichten zufolge wurden nur sehr wenige kleinere Unfälle, die während der Tests auf der Straße stattfanden, auf den Fehler anderer Fahrzeuge oder Personen auf der Straße zurückzuführen. Dies bringt uns zu einem sehr interessanten Szenario, das sich mit einem Ereignis unvermeidlicher Unfälle befasst.

Wie soll sich ein Auto in einem solchen Szenario verhalten? Sollte es den Verlust an Straßenleben auf Kosten der Insassen minimieren oder die Insassen um jeden Preis schützen?

Diese ethischen Fragen müssen beantwortet werden, wenn wir über eine Zukunft mit selbstfahrenden Autos sprechen.

"Unsere Ergebnisse bieten nur einen ersten Einblick in die heiklen Themen, die durch moralische Algorithmen für autonome Fahrzeuge aufgeworfen werden", sagte Ameen Bargh, Gelehrter und Bioethik-Experte der UAVB und der Oxford University. Er riet, den Kurs des Autos zu ändern, um den Verlust an Leben zu reduzieren.

Deontologen argumentieren jedoch, dass "einige Werte einfach immer kategorisch immer wahr sind".

"Zum Beispiel ist Mord immer falsch, und wir sollten es niemals tun, selbst wenn durch die Verlagerung des Trolleys fünf Leben gerettet werden, sollten wir es nicht tun, weil wir einen aktiv töten würden", sagte Bargh.

Die Mitglieder der Ethik- und Bioethik-Teams von UAB arbeiten mit solchen Fragen sehr viel. Eine Möglichkeit, dieses Problem anzugehen, besteht darin, so zu handeln, dass der Verlust von Menschenleben verringert wird. Die Ergebnisse der Tests sind interessant und die Menschen sind mit der Idee vertraut, dass selbstfahrende Autos so programmiert werden sollten, dass sie die Zahl der Todesfälle senken.

Wenn wir mehr und mehr in Sachen KI und Technologie vorankommen, müssen wir Antworten auf diese ethischen und philosophischen Fragen finden und Wege finden, um eine angemessene Lösung zu finden.

Quelle: MIT Technology Review

Was denkst du? Müssen selbstfahrende Autos zum Töten programmiert werden? Sagen Sie uns in den Kommentaren unten.

Lesen Sie auch: Tesla über den Autopiloten: Herausforderungen des selbstfahrenden Autokonzeptes von Google

Arbeitete Für Sie: Robert Gaines & George Fleming | Möchten Sie Uns Kontaktieren?

Kommentare Auf Der Website: