Wie könnten selbstfahrende Autos ethische Entscheidungen darüber treffen, wen sie töten sollen?


74

Selbstfahrende Autos sind natürlich nicht perfekt. Stellen Sie sich also vor, dass das Google-Auto (als Beispiel) in eine schwierige Situation geraten ist.

Hier einige Beispiele für unglückliche Situationen, die durch eine Reihe von Ereignissen verursacht wurden:

  • Das Auto fährt auf eine Menschenmenge von 10 Personen zu, die die Straße überquert, sodass es nicht rechtzeitig anhalten kann. Es kann jedoch verhindern, dass 10 Personen durch einen Aufprall auf die Wand getötet werden (Tötung der Passagiere).
  • Vermeiden, den Motorradfahrer zu töten, da die Überlebenswahrscheinlichkeit für den Fahrzeuginsassen größer ist,
  • Ein Tier zugunsten eines Menschen auf der Straße zu töten,
  • Wechseln der Fahrspuren, um einen Unfall mit einem anderen Auto zu vermeiden und das Töten eines Hundes zu vermeiden,

Und hier sind ein paar Dilemmata:

  • Erkennt der Algorithmus den Unterschied zwischen Mensch und Tier?
  • Ist die Größe des Menschen oder des Tieres von Bedeutung?
  • Zählt es, wie viele Passagiere es im Vergleich zu den Leuten an der Front hat?
  • Weiß es, wann Babys / Kinder an Bord sind?
  • Berücksichtigt es das Alter (zB das Töten des Älteren zuerst)?

Wie würde ein Algorithmus entscheiden, was er aus technischer Sicht tun soll? Ist es sich dessen bewusst (die Wahrscheinlichkeit von Tötungen zu zählen) oder nicht (Menschen zu töten, nur um ihre eigene Zerstörung zu vermeiden)?

Verwandte Artikel:


3
Ich werde in keinem Fahrzeug fahren, das so programmiert ist, dass ME nicht die höchste Priorität für die Sicherheit der Passagiere hat. Ich bin nicht allein in diesem Denken. Wenn jemand vorhat, autonome Fahrzeughersteller dazu zu zwingen, sein Fahrzeug so zu programmieren, dass nichts anderes als die Sicherheit seiner Fahrgäste im Vordergrund steht, könnte die gesamte Branche jetzt ebenfalls ihre Türen schließen. Das erste Mal, dass ein Passagier aufgrund einer abscheulichen ethischen Entscheidung stirbt, ist das letzte Mal, dass die überwiegende Mehrheit der Menschen jemals ein anderes autonomes Fahrzeug kauft. Wer will in einer Todesfalle mitfahren?
Dunk

Das sogenannte "Trolley-Problem" ist ein Troll-Y-Problem. Es gibt einen Grund dafür, dass es sich eher um ein Gedankenexperiment als um eine Fallstudie handelt: Es ist nichts, was jemals passiert ist. Es ist nicht einmal annähernd real, vor allem, weil Autos grundsätzlich keine Trolleys sind. Die richtige Antwort in jedem Fall, der aus der Ferne angewendet werden kann, lautet quasi immer "auf die Bremse treten", und wenn es jemals eine Ausnahme gibt, kann sie möglicherweise nur auf eine Weise gelöst werden: indem die Fahrzeuginsassen um jeden Preis geschützt werden und niemals an etwas anderes gedacht wird , aus zwei Gründen.
Mason Wheeler

2
Die erste, @Dunk, deckte ziemlich gut ab: Pragmatismus. Wenn es dem Auto möglich ist, eine andere Wahl zu treffen, würde niemand, der bei Verstand ist, eine kaufen wollen. Das zweite ist, dass wenn es eine "Töte alle" -Funktion gibt, die in den Computer des Autos eingebaut ist, das heißt, sie ist bereits für böswillige Hacker da, um sie zu finden und zu missbrauchen. Wägen Sie die sehr reale Chance ab, dass jemand einen Weg findet, dies mit widersprüchlichem Input gegen die rein fiktive Idee einer legitimen Trolley-Problem-Situation auszulösen, und es gibt nur eine mögliche Antwort, die moralisch nicht absurd und abscheulich ist.
Mason Wheeler

Antworten:


54

Wie könnten selbstfahrende Autos ethische Entscheidungen darüber treffen, wen sie töten sollen?

Das sollte es nicht. Selbstfahrende Autos sind keine moralischen Agenten. Autos versagen auf vorhersehbare Weise. Pferde versagen auf vorhersehbare Weise.

Das Auto fährt auf eine Menschenmenge von 10 Personen zu, die die Straße überquert, sodass es nicht rechtzeitig anhalten kann. Es kann jedoch verhindern, dass 10 Personen durch einen Aufprall auf die Wand getötet werden (Tötung der Passagiere).

In diesem Fall sollte das Auto bremsen. Wenn die 10 Menschen sterben, ist das einfach unglücklich. Wir können einfach nicht allen Überzeugungen vertrauen, was sich außerhalb des Autos abspielt. Was ist, wenn diese 10 Leute wirklich Roboter sind, die wie Menschen aussehen ? Was ist, wenn sie versuchen , dich zu töten?

Vermeiden, den Motorradfahrer zu töten, da die Überlebenswahrscheinlichkeit für den Fahrzeuginsassen größer ist,

Das harte Codieren dieser Art von Gefühlen in ein Fahrzeug öffnet den Fahrer des Fahrzeugs für alle Arten von Angriffen, einschließlich "gefälschter" Motorradfahrer. Die Menschen sind kaum in der Lage, diese Entscheidungen, wenn überhaupt, selbst zu treffen. Im Zweifelsfall einfach auf die Bremse treten.

Tier auf der Straße zu Gunsten des Menschen zu töten,

Betätige einfach die Bremsen. Was wäre, wenn es ein Baby wäre? Was wäre, wenn es eine Bombe wäre?

Spurwechsel, um gegen ein anderes Auto zu prallen, um nicht einen Hund zu töten,

Nee. Der Hund war zur falschen Zeit am falschen Ort. Das andere Auto war nicht. Bremsen Sie einfach so sicher wie möglich.

Erkennt der Algorithmus den Unterschied zwischen Mensch und Tier?

Tut ein Mensch? Nicht immer. Was ist, wenn der Mensch eine Waffe hat? Was ist, wenn das Tier große Zähne hat? Gibt es keinen Zusammenhang?

  • Ist die Größe des Menschen oder des Tieres von Bedeutung?
  • Zählt es, wie viele Passagiere es im Vergleich zu den Leuten an der Front hat?
  • Weiß es, wann Babys / Kinder an Bord sind?
  • Berücksichtigt es das Alter (zB das Töten des Älteren zuerst)?

Menschen können sich in diesen Dingen nicht einigen. Wenn Sie einen Polizisten fragen, was in einer dieser Situationen zu tun ist, lautet die Antwort nicht: "Sie hätten nach links ausweichen, alle relevanten Parteien in Ihrem Kopf abwägen, das relevante Alter zwischen allen Parteien abschätzen und dann leicht nach rechts drehen sollen. und du hättest 8% mehr Leben gerettet. " Nein, der Polizist sagt nur: "Sie hätten das Fahrzeug so schnell und sicher wie möglich zum Stehen bringen sollen." Warum? Weil die Polizei weiß, dass die Leute normalerweise nicht für schnelle Absturzszenarien gerüstet sind.

Unser Ziel für "selbstfahrendes Auto" sollte nicht "ein moralischer Akteur auf Augenhöhe mit einem Menschen" sein. Es sollte ein Agent mit der reaktiven Komplexität der Kakerlake sein, der vorhersehbar versagt.


In den meisten dieser Szenarien sind die möglicherweise getöteten Personen mehr am Schaden schuld als der Wagen / Insasse des Wagens - das Zuschlagen der Bremsen scheint die einzig vernünftige Reaktion zu sein, da der Insasse den Unfall auch unmöglich hätte vermeiden können. Sie weisen darauf hin, dass es durchaus möglich ist, einen Algorithmus zu verwenden, der sich so verhält, dass der Insasse (möglicherweise) getötet wird, anstatt dass ein Fußgänger den Insassen tatsächlich ermordet. Möglicherweise wird sogar der Insasse, das Auto oder der Hersteller dafür verantwortlich gemacht.
Klarer

48

Die Antwort auf viele dieser Fragen hängt davon ab, wie das Gerät programmiert ist. Ein Computer, der in der Lage ist, herumzufahren und zu erkennen, wohin die Straße führt, hat wahrscheinlich die Fähigkeit, einen Menschen visuell von einem Tier zu unterscheiden, unabhängig davon, ob dies auf der Kontur, dem Bild oder der Größe basiert. Mit einer ausreichend scharfen Bilderkennung können möglicherweise Anzahl und Art der Personen in einem anderen Fahrzeug gezählt werden. Es könnten sogar vorhandene Daten zur Wahrscheinlichkeit von Verletzungen von Personen in verschiedenen Arten von Fahrzeugen herangezogen werden.

Letztendlich sind sich die Menschen über die ethischen Entscheidungen uneinig. Möglicherweise kann der Benutzer / Besitzer "Ethikeinstellungen" konfigurieren, z. B. "Nur Lebenspunkte berücksichtigen" oder "Jüngere Leben sind wertvoller". Ich persönlich würde denken, dass es nicht sehr umstritten ist, dass eine Maschine sich selbst beschädigt, bevor sie einem Menschen Schaden zufügt, aber die Menschen sind sich nicht einig darüber, wie wichtig das Leben von Haustieren ist. Wenn explizite Kill-this-first-Einstellungen die Benutzer beunruhigen, können die Antworten anhand eines Fragebogens ermittelt werden, der dem Benutzer gegeben wird.


2
Irgendetwas in meinem tiefsten Bewusstsein denkt, dass eine Einstellung der Bearbeitungsethik eine schlechte Idee wäre. Ich bin mir nicht sicher, was es anders ist als die Tatsache, dass es sich um eine Maschine statt um eine Person handelt, aber ich komme immer zu dem Schluss, dass wir diesen ungeschriebenen Vertrag über die Unterzeichnung ethischer Entscheidungen einer Person bereits haben, wenn wir mit jemand anderem in ein Auto steigen.
Ian

6
"Ethik-Einstellungen"? "Ja wirklich?" Sie werden Leute haben, die es auf der Grundlage eines möglichen Vorurteils einstellen: "Töte die Person, die am ____esten aussieht" Homosexuell? Wenigstes Lieblingsrennen? Oder was ist, wenn zwei Fahrzeuge der Fahrer eines Zusammenstoßes eine gegensätzliche Ethik haben? Dann werden beide hingerichtet und es entsteht zusätzlicher Fremdschaden? Diese Gesetze müssen universell sein (zumindest innerhalb eines Landes), genau wie Straßengesetze.
Navigator_

3
@navigator_ Ich hoffe, dass die vom Hersteller bereitgestellten Optionen in Ordnung sind.
Ben N

1
Grund wie von wem definiert? Das ist meine Art von Punkt.
Navigator_

3
Ich denke tatsächlich, dass die "Ethikeinstellung" die einzig gangbare / faire Option ist, da sie den spezifischen Fahrer so genau wie möglich imitiert. Der Fahrer des Autos sollte dann für alles verantwortlich sein, was als Ergebnis passiert, als würde er fahren. Ich verstehe nicht, wie die Programmierung eines Autos, um (zB) das Leben des Fahrers vor irgendetwas anderem zu stellen, sich von dem Fahrer unterscheidet, der sein Leben vor irgendetwas anderem setzt.
Pandora

26

Persönlich denke ich, dass dies ein überhöhtes Problem sein könnte. Trolley-Probleme treten nur auf, wenn die Situation optimiert ist, um "3rd options" zu verhindern.

Ein Auto hat Bremsen, nicht wahr? "Aber was ist, wenn die Bremsen nicht funktionieren?" Na, dann darf das Auto gar nicht fahren. Sogar im regulären Verkehr wird den menschlichen Bedienern beigebracht, dass Ihre Geschwindigkeit begrenzt sein sollte, damit Sie in dem Bereich anhalten können, den Sie sehen können. Lösungen wie diese verringern die Möglichkeit eines Wagenproblems.

Was Tiere betrifft ... Wenn es keine expliziten Anstrengungen gibt, mit Menschen auf der Straße umzugehen, denke ich, werden Tiere genauso behandelt. Das klingt unplausibel - Roadkill kommt häufig vor und menschliches "Roadkill" ist unerwünscht, aber Tiere sind viel kleiner und schwerer zu sehen als Menschen. Ich denke also, dass die Erkennung von Menschen einfacher ist und viele Unfälle verhindert.

In anderen Fällen (Fehler, Fehler beim Fahren, mehrere aufeinander gestapelte Fehler) können Unfälle auftreten, sie werden analysiert und die Fahrzeuge werden aktualisiert, um ähnliche Situationen zu vermeiden.


Es ist falsch zu sagen, dass die KI nur so schnell fahren wird, wie sie von dem, was sie sehen, stoppen kann, weil das Gleiche auch für defensiv fahrende Menschen gilt. Der Grund ist, dass Annahmen getroffen werden müssen. Wenn Sie einen Hügel erklimmen, wird davon ausgegangen, dass ein großes Hindernis nicht in Sichtweite ist [Quelle DARPA Grand Challenge]. Diese Annahmen basieren auf Verkehrsregeln, um zu bestimmen, welche Aktionen richtig sind. Wenn sich also ein Unfall ereignet, können Sie Ihre Haftung verringern, solange Sie die Straßenverkehrsregeln befolgt haben. Ein Auto muss also in der Lage sein, diese Entscheidung zu treffen, aber möglicherweise auf begrenzte Weise (Schutz des Verbrauchers).
Harrichael

12

Dies ist das bekannte Trolley-Problem . Wie Ben N sagte, sind sich die Leute nicht einig über die richtige Vorgehensweise für Trolley-Problemszenarien, aber es sollte beachtet werden, dass bei selbstfahrenden Autos die Zuverlässigkeit so hoch ist, dass diese Szenarien wirklich unwahrscheinlich sind. Daher wird zumindest kurzfristig nicht viel Aufwand in die von Ihnen beschriebenen Probleme gesteckt.


Ich frage mich, wie gut das Trolley-Problem dazu passt. Das Trolley-Problem ist im Wesentlichen diskret und beschreibt eine "ein für alle Mal" Auswahl, während der Algorithmus in der Praxis eine Reihe von Auswahlmöglichkeiten in (möglicherweise recht kleinen) Zeitabständen treffen muss , möglicherweise mit der Verfügbarkeit neuer Informationen. Ein nützlicher Algorithmus ist wahrscheinlich ein Problem der „kontinuierlichen Kontrolle“, das in den tatsächlichen 3D-Raum eingebettet ist und sich mit Geschwindigkeiten und Wahrscheinlichkeiten befasst, und keine abstrakte, diskrete moralische Entscheidung. Wenn nichts anderes bedeuten würde, müsste die Implementierung nicht in solch strengen moralischen Begriffen definiert werden.
NietzscheanAI

1
@NietzscheanAI Die Idee des Trolley-Problems ist nicht, welche Entscheidung zu treffen ist, sondern worüber Sie sich entscheiden müssen. Wenn Sie sich Gedanken über Burgulars, die Anzahl der Personen, die Anzahl der Tiere, die Schuld, die Sicherheit des Fahrers, ein größeres Gut, die geringste Veränderung usw. machen, können Sie die Wahrscheinlichkeiten weiterhin auf Wagenprobleme anwenden, d. H. Route A hat eine 30-prozentige Chance, 10 Menschen zu töten. Bei Trolley-Problemen handelt es sich normalerweise um zwei Routen, damit Sie überlegen können, auf welchen Faktoren Sie eine ethische Entscheidung genauer treffen.
Harrichael

11

In der realen Welt werden Entscheidungen auf der Grundlage des Gesetzes getroffen, und wie im Gesetz vermerkt. Im Allgemeinen bevorzugt das Gesetz Untätigkeit gegenüber Handeln.


Ah, das macht für menschliche Opfer sehr viel Sinn. Wäre die Wahl des Gesetzes anders, wenn das Auto ausweichen könnte, um einen Hund anstelle eines Fußgängers zu schlagen?
Ben N

6

Bei einem fahrerlosen Auto, das von einer einzelnen Einheit entworfen wurde, besteht die beste Möglichkeit, Entscheidungen darüber zu treffen, wer getötet werden soll, darin, die wahrscheinliche Haftung zu schätzen und zu minimieren.

Es muss nicht unbedingt alle potenziellen Opfer in der Region korrekt identifizieren, um eine Verteidigung für seine Entscheidung zu haben, nur um sie sowie einen Menschen zu identifizieren, von dem man erwarten kann.

Es muss nicht einmal das Alter und die körperliche Verfassung aller Personen im Auto kennen, da es um diese Informationen bitten kann und, wenn es abgelehnt wird, die Verteidigung hat, dass die Fahrgäste es nicht zur Verfügung stellen, und daher die Verantwortung dafür übernahm, es zu berauben die Fähigkeit, eine bessere Entscheidung zu treffen.

Es muss lediglich ein tragfähiges Modell für die Minimierung der Belastung des Unternehmens durch Rechtsstreitigkeiten vorhanden sein, das im Laufe der Zeit verbessert werden kann, um es rentabler zu machen.


6

„Diese moralische Frage, wen wir retten müssen: 99 Prozent unserer Ingenieurarbeit sollen verhindern, dass diese Situationen überhaupt eintreten.“ —Christoph von Hugo, Mercedes-Benz

Dieses Zitat stammt aus einem Artikel mit dem Titel Selbstfahrende Mercedes-Benzes haben Vorrang vor der Sicherheit der Insassen gegenüber Fußgängern, der am 7. Oktober 2016 von MICHAEL TAYLOR veröffentlicht und am 8. November 2016 abgerufen wurde.

Hier ist ein Auszug, der die technologische, praktische Lösung des Problems umreißt.

Der älteste Autobauer der Welt sieht das Problem, ähnlich wie die als Trolley-Problem bekannte Frage von 1967, nicht mehr als unbeantwortbar an. Anstatt sich in einer Krise moralisch und ethisch aneinander zu binden, will Mercedes-Benz seine selbstfahrenden Autos einfach so programmieren, dass die Menschen im Auto gerettet werden. Jedes Mal.

Laut Christoph von Hugo, dem Manager für Fahrerassistenzsysteme und aktive Sicherheit des Automobilherstellers, werden alle künftigen autonomen Fahrzeuge der Stufen 4 und 5 von Mercedes-Benz vorrangig die Menschen retten, die sie führen.

Der Artikel enthält auch den folgenden faszinierenden Absatz.

Eine Studie, die Mitte des Jahres vom Wissenschaftsmagazin veröffentlicht wurde, hat auch nicht die Luft gereinigt . Die Mehrheit der 1928 befragten Personen hielt es für ethisch besser, wenn autonome Autos ihre Insassen opfern, anstatt mit Fußgängern zusammenzustoßen. Die Mehrheit sagte jedoch auch, dass sie keine autonomen Autos kaufen würden, wenn die Sicherheit der Fußgänger Vorrang vor der eigenen Sicherheit hätte.


3

Ehrlich gesagt denke ich, dass dieses Problem (das Trolley-Problem) von Natur aus überkompliziert ist, da die Lösung in der realen Welt wahrscheinlich ziemlich einfach ist. Wie ein menschlicher Fahrer wird ein KI-Fahrer so programmiert, dass er zu jeder Zeit allgemein ethisch handelt und dabei immer die Vorgehensweise wählt, die keinen Schaden anrichtet oder den geringstmöglichen Schaden verursacht.

Wenn ein KI-Fahrer auf eine Gefahr stößt, beispielsweise auf einen bevorstehenden Sachschaden, bremst die KI offensichtlich stark und richtet das Auto von zerbrechlichen Objekten weg, um Stöße zu vermeiden oder zu minimieren. Wenn die Gefahr auf einen Fußgänger, ein Auto oder ein Gebäude trifft, kollidiert es mit dem am wenigsten kostbaren oder teuren Objekt, um den geringsten Schaden zu verursachen. Dabei wird einem Menschen ein höherer Wert beigemessen als einem Gebäude oder einem Hund.

Wenn der KI-Fahrer Ihres Autos ein Kind überfahren oder gegen eine Wand stoßen soll, wird er das Auto und Sie in die Wand lenken . Das würde jeder gute Mensch tun. Warum sollte sich eine gute KI anders verhalten?


1
"Die KI wird hart bremsen", "Sie wird sich dafür entscheiden, mit ... zusammenzustoßen". Wenn dies Aussagen sind, könnten Sie die Referenzen posten? Oder sind sie meinungsbasiert?
Kenorb

1
Das OP stellte die Frage: "Welchen Schaden wird die KI zufügen?". Ich denke das ist das falsche Ziel. Menschen machen das nicht. Stattdessen folgt die KI einer allgemeineren Strategie, Schaden zu vermeiden und so wenig Schaden wie möglich zu verursachen. Dieses Optimierungsziel ist intuitiver und schwieriger zu diskutieren, wenn Haftungsbedenken auftreten.
Randy

3

Sie sollten nicht. Leute sollten.

Menschen können die Verantwortung für ethische Entscheidungen nicht in die Hände von Computern legen. Es liegt in unserer Verantwortung als Informatiker / KI-Experten, Entscheidungen für Computer zu programmieren. Wird es hieraus noch Menschenopfer geben? Natürlich werden sie - die Leute sind nicht perfekt und auch keine Programme.

Zu diesem Thema gibt es hier eine hervorragende eingehende Debatte . Mir gefällt besonders die Argumentation von Yann LeCun zum parallelen ethischen Dilemma, potenziell tödliche Medikamente an Patienten zu testen. Ähnlich wie selbstfahrende Autos können beide tödlich sein und gleichzeitig die Absicht haben, auf lange Sicht mehr Menschen zu retten .


3

Wie könnten selbstfahrende Autos ethische Entscheidungen darüber treffen, wen sie töten sollen?

Durch die Verwaltung der gesetzlichen Haftung und der Verbrauchersicherheit.

Ein Auto, das dem Verbraucher Sicherheit bietet, wird ein Auto sein, das von diesen Verbrauchern gekauft wird. Unternehmen wollen weder für die Tötung ihrer Kunden haftbar gemacht werden noch ein Produkt verkaufen, das den Nutzer in eine rechtliche Notlage bringt. Rechtliche Haftung und Verbrauchersicherheit sind unter dem Gesichtspunkt der "Kosten für den Verbraucher" dasselbe Thema.

Und hier sind einige Dilemmata:

  • Erkennt der Algorithmus den Unterschied zwischen Mensch und Tier?

Wenn ein Tier / Mensch nicht legal gemieden werden kann (und das Auto ist rechtmäßig - wenn es nicht ist, stimmt etwas anderes nicht mit der Entscheidungsfindung der KI), wird es wahrscheinlich nicht. Wenn das Auto dem Hindernis sicher ausweichen kann, könnte die KI vernünftigerweise gesehen werden, um diese Entscheidung zu treffen, d. H. biegen Sie auf einer offenen Autobahn auf eine andere Spur ab. Beachten Sie, dass der Schwerpunkt auf Haftung und Fahrersicherheit liegt.

  • Ist die Größe des Menschen oder des Tieres von Bedeutung?

Nur der Risikofaktor vom Auffahren auf das Hindernis. Ein Nilpferd zu schlagen ist möglicherweise weniger wünschenswert als den Graben zu treffen. Einen Hund zu schlagen ist wahrscheinlich wünschenswerter als das Auto des Kunden zu zerstören.

  • Zählt es, wie viele Passagiere es im Vergleich zu den Leuten an der Front hat?

Es zählt die Leute als Passagiere, um zu sehen, ob die Fahrgemeinschaftsspur genommen werden kann. Im Falle einer Kollision zählt es die Personen als Risikofaktor.

  • Weiß es, wann Babys / Kinder an Bord sind?

Nein.

  • Berücksichtigt es das Alter (zB das Töten des Älteren zuerst)?

Nein. Dies ist einfach die falsche Abstraktion, um eine Entscheidung zu treffen. Wie könnte dies gewichtet werden, um die richtige Vorgehensweise zur Reduzierung des Risikofaktors zu wählen? Wenn Option 1 einen jungen Mann mit einer Wahrscheinlichkeit von 20% eines erheblichen Insassenschadens und ohne gesetzliche Haftung trifft und Option 2 einen alten Mann mit einer Wahrscheinlichkeit von 21% eines erheblichen Insassenschadens und ohne gesetzliche Haftung trifft, kann welcher Philosoph auch nur eine Person davon überzeugen die gerechten und gerechten Gewichte, um eine Entscheidung zu treffen?

Zum Glück ist die beste Entscheidung, die meiste Zeit die Pausen einzulegen, um die Geschwindigkeit zu verringern (insbesondere, wenn Sie bedenken, dass es oftmals sinnvoll ist, vorhersehbar zu handeln, damit Fußgänger und Autofahrer entsprechend reagieren können). In der Zwischenzeit können bessere Wertverbesserungen erzielt werden, wenn vorausgesagt werden soll, wann die Fahrer schlechte Entscheidungen treffen und wann andere Aktionen (z. B. das Umkehren) vorteilhafter sind als das Schlagen der Pausen. An dieser Stelle lohnt es sich nicht einmal, Informationen zu sammeln, um die von Philosophen vorgeschlagenen ethischen Entscheidungen zu treffen. Somit wird diese Ausgabe von sensationellen Journalisten und Philosophen überbeansprucht.


2

Ich denke, dass das Auto in den meisten Fällen standardmäßig die Geschwindigkeit als Hauptoption reduziert, anstatt auf eine bestimmte Wahl zu oder von dieser weg zu lenken. Wie andere bereits erwähnt haben, ist es nur eine schlechte Idee, Einstellungen in Bezug auf Ethik vorzunehmen. Was passiert, wenn zwei Autos, die mit entgegengesetzten ethischen Einstellungen programmiert sind und im Begriff sind, zu kollidieren? Die Autos könnten möglicherweise ein System haben, das die Benutzereinstellungen außer Kraft setzt und die für beide Seiten vorteilhafteste Lösung auswählt. Es ist in der Tat ein interessantes Konzept, das definitiv besprochen und standardisiert werden muss, bevor eine umfassende Implementierung erfolgt. Wenn ethische Entscheidungen in die Hände einer Maschine gelegt werden, ist die daraus resultierende Haftung manchmal schwer vorstellbar.


Ja, eine Kollisionsbremsung ist die beste Lösung. Leider ist es in einigen Fällen (den in der Frage gestellten Fällen) unvermeidlich , etwas zu treffen . Sie scheinen einigen bestehenden Antworten zuzustimmen. Bitte beachten Sie, dass wir möchten, dass jede Antwort für sich allein steht. Sobald Sie einen ausreichenden Ruf haben, können Sie Antworten, die Sie für hilfreich halten, positiv bewerten. Das Problem zweier gegensätzlich konfigurierter Autos ist in der Tat interessant; Es wäre großartig, wenn Sie Ihre Antwort bearbeiten würden , um sie zu erweitern. Vielen Dank!
Ben N

Vielen Dank für Ihre Antwort, ich weiß sie wirklich zu schätzen und werde sie in Zukunft auf der Website verwenden. Die Richtlinien für Antworten waren mir nicht bekannt.
Imhotraore

1

Ich denke, es gibt keine Möglichkeit, solche ethischen Einstellungen in einem Auto zu ändern. Aber hey, wenn Handys gerootet werden können, warum nicht Autos? Ich stelle mir vor, dass es in Zukunft Linux-Builds für bestimmte Modelle geben wird, mit denen Sie tun können, was Sie wollen.

Wer solche Entscheidungen treffen wird, wird den heutigen Datenschutzfragen sehr ähnlich sein. Es wird ein Tauziehen zwischen den Anbietern von Betriebssystemen (die versuchen, die Zahl der Verletzten auf ein Minimum zu beschränken, jede mit ihren eigenen Methoden) und den Versicherungsunternehmen (die versuchen, Sie zum Bezahlen zu bringen) geben Mehr für Betriebssysteme, von denen statistisch gezeigt wird, dass sie Ihr Auto leichter beschädigen) und für Autohersteller (die möchten, dass Sie Ihr Auto so schnell wie möglich in den Müll werfen, damit Sie ein neues kaufen oder Autos herstellen, die lächerlich werden müssen Menge $$$ Service).

Dann wird ein Whistleblower herauskommen und einen Teil des Codes enthüllen, der sich dafür entscheidet, kleine Kinder vor Erwachsenen zu töten - weil es schwieriger sein wird, sie von Tieren zu unterscheiden, und er wird Risiken eingehen, um zu retten, wen er sicherer als Menschen erkennt. Der OS-Hersteller wird von der Öffentlichkeit auf den Kopf geschlagen und es wird ein neuer Konsens gefunden. Hinweisgeber werden auch von Versicherungen und Autoherstellern kommen.

Die Menschheit wird sich eine heiße Pfanne schnappen und sich verbrennen und dann lernen, vorher Handschuhe anzuziehen. Mein Rat würde nur sicherstellen, dass Sie nicht diese Hand sind - halten Sie sich für ein paar Jahre von ihnen fern, bis alle frühen Fehler gemacht sind.


1

Die einzig vernünftige Wahl ist, vorhersehbares Verhalten zu verwenden. Also bei den Leuten vor dem Autoszenario: Zuerst tritt das Auto auf die Bremse, hupt gleichzeitig die Hupe und bleibt auf Kurs. Die Menschen haben dann die Möglichkeit, aus dem Weg zu springen, was dazu führt, dass keine Menschen getötet werden. Auch bei Vollbremsungen (von 50 km / h auf null sind weniger als 3 Fahrzeuglängen) ist eine Aufprallsituation kaum vorstellbar. Selbst wenn der Punkt nicht erreicht werden kann, sind schwere Schäden für die Fußgänger unwahrscheinlich.

Das andere Szenario ist einfach verrückt. Der Abstand muss also weniger als 3 Wagenlängen betragen, mindestens 1 Wagenlänge wird für die Lenkung benötigt, dann ist ein Autounfall eine unkontrollierbare Situation, die zum Durchdrehen und zum Tod aller 11 Personen führen kann.

Abgesehen davon, dass ich nicht glaube, dass es in der Realität ein Beispiel gibt, in dem es ein Dilemma gibt; die Lösung in diesen unwahrscheinlichen Fällen, wenn sie den Erwartungen der Gegenpartei entspricht, damit die Gegenpartei die Situation ebenfalls entschärfen kann.


Kannst du bitte versuchen, die erste Antwort von Ben durchzugehen? Und dann versuche, deine Antwort in Übereinstimmung mit der AI zu bearbeiten!
Quintumnia

Kannst du genauer sein? Ich habe Bens erste Antwort durchgelesen, aber ich verstehe nicht, wie das zusammenhängt. Können Sie erklären, worum es bei AI geht?
Lalala

Was ich dort gemeint habe, ist, über AI Bescheid zu wissen. So kann Ihre Antwort abgelehnt werden oder nichts zu sehen sein, Ihre Majestät!
Quintumnia

@quintumnia Diese Antwort scheint mir in Ordnung zu sein (+1) - es ist eine gute Wahl, einfach weiterzumachen, ohne zu versuchen, Entscheidungen zu treffen.
Ben N
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.