Wie könnten selbstfahrende Autos ethische Entscheidungen darüber treffen, wen sie töten sollen?
Das sollte es nicht. Selbstfahrende Autos sind keine moralischen Agenten. Autos versagen auf vorhersehbare Weise. Pferde versagen auf vorhersehbare Weise.
Das Auto fährt auf eine Menschenmenge von 10 Personen zu, die die Straße überquert, sodass es nicht rechtzeitig anhalten kann. Es kann jedoch verhindern, dass 10 Personen durch einen Aufprall auf die Wand getötet werden (Tötung der Passagiere).
In diesem Fall sollte das Auto bremsen. Wenn die 10 Menschen sterben, ist das einfach unglücklich. Wir können einfach nicht allen Überzeugungen vertrauen, was sich außerhalb des Autos abspielt. Was ist, wenn diese 10 Leute wirklich Roboter sind, die wie Menschen aussehen ? Was ist, wenn sie versuchen , dich zu töten?
Vermeiden, den Motorradfahrer zu töten, da die Überlebenswahrscheinlichkeit für den Fahrzeuginsassen größer ist,
Das harte Codieren dieser Art von Gefühlen in ein Fahrzeug öffnet den Fahrer des Fahrzeugs für alle Arten von Angriffen, einschließlich "gefälschter" Motorradfahrer. Die Menschen sind kaum in der Lage, diese Entscheidungen, wenn überhaupt, selbst zu treffen. Im Zweifelsfall einfach auf die Bremse treten.
Tier auf der Straße zu Gunsten des Menschen zu töten,
Betätige einfach die Bremsen. Was wäre, wenn es ein Baby wäre? Was wäre, wenn es eine Bombe wäre?
Spurwechsel, um gegen ein anderes Auto zu prallen, um nicht einen Hund zu töten,
Nee. Der Hund war zur falschen Zeit am falschen Ort. Das andere Auto war nicht. Bremsen Sie einfach so sicher wie möglich.
Erkennt der Algorithmus den Unterschied zwischen Mensch und Tier?
Tut ein Mensch? Nicht immer. Was ist, wenn der Mensch eine Waffe hat? Was ist, wenn das Tier große Zähne hat? Gibt es keinen Zusammenhang?
- Ist die Größe des Menschen oder des Tieres von Bedeutung?
- Zählt es, wie viele Passagiere es im Vergleich zu den Leuten an der Front hat?
- Weiß es, wann Babys / Kinder an Bord sind?
- Berücksichtigt es das Alter (zB das Töten des Älteren zuerst)?
Menschen können sich in diesen Dingen nicht einigen. Wenn Sie einen Polizisten fragen, was in einer dieser Situationen zu tun ist, lautet die Antwort nicht: "Sie hätten nach links ausweichen, alle relevanten Parteien in Ihrem Kopf abwägen, das relevante Alter zwischen allen Parteien abschätzen und dann leicht nach rechts drehen sollen. und du hättest 8% mehr Leben gerettet. " Nein, der Polizist sagt nur: "Sie hätten das Fahrzeug so schnell und sicher wie möglich zum Stehen bringen sollen." Warum? Weil die Polizei weiß, dass die Leute normalerweise nicht für schnelle Absturzszenarien gerüstet sind.
Unser Ziel für "selbstfahrendes Auto" sollte nicht "ein moralischer Akteur auf Augenhöhe mit einem Menschen" sein. Es sollte ein Agent mit der reaktiven Komplexität der Kakerlake sein, der vorhersehbar versagt.