Selbstfahrende Autos sind natürlich nicht perfekt. Stellen Sie sich also vor, dass das Google-Auto (als Beispiel) in eine schwierige Situation geraten ist.
Hier einige Beispiele für unglückliche Situationen, die durch eine Reihe von Ereignissen verursacht wurden:
- Das Auto fährt auf eine Menschenmenge von 10 Personen zu, die die Straße überquert, sodass es nicht rechtzeitig anhalten kann. Es kann jedoch verhindern, dass 10 Personen durch einen Aufprall auf die Wand getötet werden (Tötung der Passagiere).
- Vermeiden, den Motorradfahrer zu töten, da die Überlebenswahrscheinlichkeit für den Fahrzeuginsassen größer ist,
- Ein Tier zugunsten eines Menschen auf der Straße zu töten,
- Wechseln der Fahrspuren, um einen Unfall mit einem anderen Auto zu vermeiden und das Töten eines Hundes zu vermeiden,
Und hier sind ein paar Dilemmata:
- Erkennt der Algorithmus den Unterschied zwischen Mensch und Tier?
- Ist die Größe des Menschen oder des Tieres von Bedeutung?
- Zählt es, wie viele Passagiere es im Vergleich zu den Leuten an der Front hat?
- Weiß es, wann Babys / Kinder an Bord sind?
- Berücksichtigt es das Alter (zB das Töten des Älteren zuerst)?
Wie würde ein Algorithmus entscheiden, was er aus technischer Sicht tun soll? Ist es sich dessen bewusst (die Wahrscheinlichkeit von Tötungen zu zählen) oder nicht (Menschen zu töten, nur um ihre eigene Zerstörung zu vermeiden)?
Verwandte Artikel:
Antworten:
Das sollte es nicht. Selbstfahrende Autos sind keine moralischen Agenten. Autos versagen auf vorhersehbare Weise. Pferde versagen auf vorhersehbare Weise.
In diesem Fall sollte das Auto bremsen. Wenn die 10 Menschen sterben, ist das einfach unglücklich. Wir können einfach nicht allen Überzeugungen vertrauen, was sich außerhalb des Autos abspielt. Was ist, wenn diese 10 Leute wirklich Roboter sind, die wie Menschen aussehen ? Was ist, wenn sie versuchen , dich zu töten?
Das harte Codieren dieser Art von Gefühlen in ein Fahrzeug öffnet den Fahrer des Fahrzeugs für alle Arten von Angriffen, einschließlich "gefälschter" Motorradfahrer. Die Menschen sind kaum in der Lage, diese Entscheidungen, wenn überhaupt, selbst zu treffen. Im Zweifelsfall einfach auf die Bremse treten.
Betätige einfach die Bremsen. Was wäre, wenn es ein Baby wäre? Was wäre, wenn es eine Bombe wäre?
Nee. Der Hund war zur falschen Zeit am falschen Ort. Das andere Auto war nicht. Bremsen Sie einfach so sicher wie möglich.
Tut ein Mensch? Nicht immer. Was ist, wenn der Mensch eine Waffe hat? Was ist, wenn das Tier große Zähne hat? Gibt es keinen Zusammenhang?
Menschen können sich in diesen Dingen nicht einigen. Wenn Sie einen Polizisten fragen, was in einer dieser Situationen zu tun ist, lautet die Antwort nicht: "Sie hätten nach links ausweichen, alle relevanten Parteien in Ihrem Kopf abwägen, das relevante Alter zwischen allen Parteien abschätzen und dann leicht nach rechts drehen sollen. und du hättest 8% mehr Leben gerettet. " Nein, der Polizist sagt nur: "Sie hätten das Fahrzeug so schnell und sicher wie möglich zum Stehen bringen sollen." Warum? Weil die Polizei weiß, dass die Leute normalerweise nicht für schnelle Absturzszenarien gerüstet sind.
Unser Ziel für "selbstfahrendes Auto" sollte nicht "ein moralischer Akteur auf Augenhöhe mit einem Menschen" sein. Es sollte ein Agent mit der reaktiven Komplexität der Kakerlake sein, der vorhersehbar versagt.
quelle
Die Antwort auf viele dieser Fragen hängt davon ab, wie das Gerät programmiert ist. Ein Computer, der in der Lage ist, herumzufahren und zu erkennen, wohin die Straße führt, hat wahrscheinlich die Fähigkeit, einen Menschen visuell von einem Tier zu unterscheiden, unabhängig davon, ob dies auf der Kontur, dem Bild oder der Größe basiert. Mit einer ausreichend scharfen Bilderkennung können möglicherweise Anzahl und Art der Personen in einem anderen Fahrzeug gezählt werden. Es könnten sogar vorhandene Daten zur Wahrscheinlichkeit von Verletzungen von Personen in verschiedenen Arten von Fahrzeugen herangezogen werden.
Letztendlich sind sich die Menschen über die ethischen Entscheidungen uneinig. Möglicherweise kann der Benutzer / Besitzer "Ethikeinstellungen" konfigurieren, z. B. "Nur Lebenspunkte berücksichtigen" oder "Jüngere Leben sind wertvoller". Ich persönlich würde denken, dass es nicht sehr umstritten ist, dass eine Maschine sich selbst beschädigt, bevor sie einem Menschen Schaden zufügt, aber die Menschen sind sich nicht einig darüber, wie wichtig das Leben von Haustieren ist. Wenn explizite Kill-this-first-Einstellungen die Benutzer beunruhigen, können die Antworten anhand eines Fragebogens ermittelt werden, der dem Benutzer gegeben wird.
quelle
Persönlich denke ich, dass dies ein überhöhtes Problem sein könnte. Trolley-Probleme treten nur auf, wenn die Situation optimiert ist, um "3rd options" zu verhindern.
Ein Auto hat Bremsen, nicht wahr? "Aber was ist, wenn die Bremsen nicht funktionieren?" Na, dann darf das Auto gar nicht fahren. Sogar im regulären Verkehr wird den menschlichen Bedienern beigebracht, dass Ihre Geschwindigkeit begrenzt sein sollte, damit Sie in dem Bereich anhalten können, den Sie sehen können. Lösungen wie diese verringern die Möglichkeit eines Wagenproblems.
Was Tiere betrifft ... Wenn es keine expliziten Anstrengungen gibt, mit Menschen auf der Straße umzugehen, denke ich, werden Tiere genauso behandelt. Das klingt unplausibel - Roadkill kommt häufig vor und menschliches "Roadkill" ist unerwünscht, aber Tiere sind viel kleiner und schwerer zu sehen als Menschen. Ich denke also, dass die Erkennung von Menschen einfacher ist und viele Unfälle verhindert.
In anderen Fällen (Fehler, Fehler beim Fahren, mehrere aufeinander gestapelte Fehler) können Unfälle auftreten, sie werden analysiert und die Fahrzeuge werden aktualisiert, um ähnliche Situationen zu vermeiden.
quelle
Dies ist das bekannte Trolley-Problem . Wie Ben N sagte, sind sich die Leute nicht einig über die richtige Vorgehensweise für Trolley-Problemszenarien, aber es sollte beachtet werden, dass bei selbstfahrenden Autos die Zuverlässigkeit so hoch ist, dass diese Szenarien wirklich unwahrscheinlich sind. Daher wird zumindest kurzfristig nicht viel Aufwand in die von Ihnen beschriebenen Probleme gesteckt.
quelle
In der realen Welt werden Entscheidungen auf der Grundlage des Gesetzes getroffen, und wie im Gesetz vermerkt. Im Allgemeinen bevorzugt das Gesetz Untätigkeit gegenüber Handeln.
quelle
Bei einem fahrerlosen Auto, das von einer einzelnen Einheit entworfen wurde, besteht die beste Möglichkeit, Entscheidungen darüber zu treffen, wer getötet werden soll, darin, die wahrscheinliche Haftung zu schätzen und zu minimieren.
Es muss nicht unbedingt alle potenziellen Opfer in der Region korrekt identifizieren, um eine Verteidigung für seine Entscheidung zu haben, nur um sie sowie einen Menschen zu identifizieren, von dem man erwarten kann.
Es muss nicht einmal das Alter und die körperliche Verfassung aller Personen im Auto kennen, da es um diese Informationen bitten kann und, wenn es abgelehnt wird, die Verteidigung hat, dass die Fahrgäste es nicht zur Verfügung stellen, und daher die Verantwortung dafür übernahm, es zu berauben die Fähigkeit, eine bessere Entscheidung zu treffen.
Es muss lediglich ein tragfähiges Modell für die Minimierung der Belastung des Unternehmens durch Rechtsstreitigkeiten vorhanden sein, das im Laufe der Zeit verbessert werden kann, um es rentabler zu machen.
quelle
Dieses Zitat stammt aus einem Artikel mit dem Titel Selbstfahrende Mercedes-Benzes haben Vorrang vor der Sicherheit der Insassen gegenüber Fußgängern, der am 7. Oktober 2016 von MICHAEL TAYLOR veröffentlicht und am 8. November 2016 abgerufen wurde.
Hier ist ein Auszug, der die technologische, praktische Lösung des Problems umreißt.
Der Artikel enthält auch den folgenden faszinierenden Absatz.
quelle
Ehrlich gesagt denke ich, dass dieses Problem (das Trolley-Problem) von Natur aus überkompliziert ist, da die Lösung in der realen Welt wahrscheinlich ziemlich einfach ist. Wie ein menschlicher Fahrer wird ein KI-Fahrer so programmiert, dass er zu jeder Zeit allgemein ethisch handelt und dabei immer die Vorgehensweise wählt, die keinen Schaden anrichtet oder den geringstmöglichen Schaden verursacht.
Wenn ein KI-Fahrer auf eine Gefahr stößt, beispielsweise auf einen bevorstehenden Sachschaden, bremst die KI offensichtlich stark und richtet das Auto von zerbrechlichen Objekten weg, um Stöße zu vermeiden oder zu minimieren. Wenn die Gefahr auf einen Fußgänger, ein Auto oder ein Gebäude trifft, kollidiert es mit dem am wenigsten kostbaren oder teuren Objekt, um den geringsten Schaden zu verursachen. Dabei wird einem Menschen ein höherer Wert beigemessen als einem Gebäude oder einem Hund.
Wenn der KI-Fahrer Ihres Autos ein Kind überfahren oder gegen eine Wand stoßen soll, wird er das Auto und Sie in die Wand lenken . Das würde jeder gute Mensch tun. Warum sollte sich eine gute KI anders verhalten?
quelle
Sie sollten nicht. Leute sollten.
Menschen können die Verantwortung für ethische Entscheidungen nicht in die Hände von Computern legen. Es liegt in unserer Verantwortung als Informatiker / KI-Experten, Entscheidungen für Computer zu programmieren. Wird es hieraus noch Menschenopfer geben? Natürlich werden sie - die Leute sind nicht perfekt und auch keine Programme.
Zu diesem Thema gibt es hier eine hervorragende eingehende Debatte . Mir gefällt besonders die Argumentation von Yann LeCun zum parallelen ethischen Dilemma, potenziell tödliche Medikamente an Patienten zu testen. Ähnlich wie selbstfahrende Autos können beide tödlich sein und gleichzeitig die Absicht haben, auf lange Sicht mehr Menschen zu retten .
quelle
Wie könnten selbstfahrende Autos ethische Entscheidungen darüber treffen, wen sie töten sollen?
Durch die Verwaltung der gesetzlichen Haftung und der Verbrauchersicherheit.
Ein Auto, das dem Verbraucher Sicherheit bietet, wird ein Auto sein, das von diesen Verbrauchern gekauft wird. Unternehmen wollen weder für die Tötung ihrer Kunden haftbar gemacht werden noch ein Produkt verkaufen, das den Nutzer in eine rechtliche Notlage bringt. Rechtliche Haftung und Verbrauchersicherheit sind unter dem Gesichtspunkt der "Kosten für den Verbraucher" dasselbe Thema.
Wenn ein Tier / Mensch nicht legal gemieden werden kann (und das Auto ist rechtmäßig - wenn es nicht ist, stimmt etwas anderes nicht mit der Entscheidungsfindung der KI), wird es wahrscheinlich nicht. Wenn das Auto dem Hindernis sicher ausweichen kann, könnte die KI vernünftigerweise gesehen werden, um diese Entscheidung zu treffen, d. H. biegen Sie auf einer offenen Autobahn auf eine andere Spur ab. Beachten Sie, dass der Schwerpunkt auf Haftung und Fahrersicherheit liegt.
Nur der Risikofaktor vom Auffahren auf das Hindernis. Ein Nilpferd zu schlagen ist möglicherweise weniger wünschenswert als den Graben zu treffen. Einen Hund zu schlagen ist wahrscheinlich wünschenswerter als das Auto des Kunden zu zerstören.
Es zählt die Leute als Passagiere, um zu sehen, ob die Fahrgemeinschaftsspur genommen werden kann. Im Falle einer Kollision zählt es die Personen als Risikofaktor.
Nein.
Nein. Dies ist einfach die falsche Abstraktion, um eine Entscheidung zu treffen. Wie könnte dies gewichtet werden, um die richtige Vorgehensweise zur Reduzierung des Risikofaktors zu wählen? Wenn Option 1 einen jungen Mann mit einer Wahrscheinlichkeit von 20% eines erheblichen Insassenschadens und ohne gesetzliche Haftung trifft und Option 2 einen alten Mann mit einer Wahrscheinlichkeit von 21% eines erheblichen Insassenschadens und ohne gesetzliche Haftung trifft, kann welcher Philosoph auch nur eine Person davon überzeugen die gerechten und gerechten Gewichte, um eine Entscheidung zu treffen?
Zum Glück ist die beste Entscheidung, die meiste Zeit die Pausen einzulegen, um die Geschwindigkeit zu verringern (insbesondere, wenn Sie bedenken, dass es oftmals sinnvoll ist, vorhersehbar zu handeln, damit Fußgänger und Autofahrer entsprechend reagieren können). In der Zwischenzeit können bessere Wertverbesserungen erzielt werden, wenn vorausgesagt werden soll, wann die Fahrer schlechte Entscheidungen treffen und wann andere Aktionen (z. B. das Umkehren) vorteilhafter sind als das Schlagen der Pausen. An dieser Stelle lohnt es sich nicht einmal, Informationen zu sammeln, um die von Philosophen vorgeschlagenen ethischen Entscheidungen zu treffen. Somit wird diese Ausgabe von sensationellen Journalisten und Philosophen überbeansprucht.
quelle
Ich denke, dass das Auto in den meisten Fällen standardmäßig die Geschwindigkeit als Hauptoption reduziert, anstatt auf eine bestimmte Wahl zu oder von dieser weg zu lenken. Wie andere bereits erwähnt haben, ist es nur eine schlechte Idee, Einstellungen in Bezug auf Ethik vorzunehmen. Was passiert, wenn zwei Autos, die mit entgegengesetzten ethischen Einstellungen programmiert sind und im Begriff sind, zu kollidieren? Die Autos könnten möglicherweise ein System haben, das die Benutzereinstellungen außer Kraft setzt und die für beide Seiten vorteilhafteste Lösung auswählt. Es ist in der Tat ein interessantes Konzept, das definitiv besprochen und standardisiert werden muss, bevor eine umfassende Implementierung erfolgt. Wenn ethische Entscheidungen in die Hände einer Maschine gelegt werden, ist die daraus resultierende Haftung manchmal schwer vorstellbar.
quelle
Ich denke, es gibt keine Möglichkeit, solche ethischen Einstellungen in einem Auto zu ändern. Aber hey, wenn Handys gerootet werden können, warum nicht Autos? Ich stelle mir vor, dass es in Zukunft Linux-Builds für bestimmte Modelle geben wird, mit denen Sie tun können, was Sie wollen.
Wer solche Entscheidungen treffen wird, wird den heutigen Datenschutzfragen sehr ähnlich sein. Es wird ein Tauziehen zwischen den Anbietern von Betriebssystemen (die versuchen, die Zahl der Verletzten auf ein Minimum zu beschränken, jede mit ihren eigenen Methoden) und den Versicherungsunternehmen (die versuchen, Sie zum Bezahlen zu bringen) geben Mehr für Betriebssysteme, von denen statistisch gezeigt wird, dass sie Ihr Auto leichter beschädigen) und für Autohersteller (die möchten, dass Sie Ihr Auto so schnell wie möglich in den Müll werfen, damit Sie ein neues kaufen oder Autos herstellen, die lächerlich werden müssen Menge $$$ Service).
Dann wird ein Whistleblower herauskommen und einen Teil des Codes enthüllen, der sich dafür entscheidet, kleine Kinder vor Erwachsenen zu töten - weil es schwieriger sein wird, sie von Tieren zu unterscheiden, und er wird Risiken eingehen, um zu retten, wen er sicherer als Menschen erkennt. Der OS-Hersteller wird von der Öffentlichkeit auf den Kopf geschlagen und es wird ein neuer Konsens gefunden. Hinweisgeber werden auch von Versicherungen und Autoherstellern kommen.
Die Menschheit wird sich eine heiße Pfanne schnappen und sich verbrennen und dann lernen, vorher Handschuhe anzuziehen. Mein Rat würde nur sicherstellen, dass Sie nicht diese Hand sind - halten Sie sich für ein paar Jahre von ihnen fern, bis alle frühen Fehler gemacht sind.
quelle
Die einzig vernünftige Wahl ist, vorhersehbares Verhalten zu verwenden. Also bei den Leuten vor dem Autoszenario: Zuerst tritt das Auto auf die Bremse, hupt gleichzeitig die Hupe und bleibt auf Kurs. Die Menschen haben dann die Möglichkeit, aus dem Weg zu springen, was dazu führt, dass keine Menschen getötet werden. Auch bei Vollbremsungen (von 50 km / h auf null sind weniger als 3 Fahrzeuglängen) ist eine Aufprallsituation kaum vorstellbar. Selbst wenn der Punkt nicht erreicht werden kann, sind schwere Schäden für die Fußgänger unwahrscheinlich.
Das andere Szenario ist einfach verrückt. Der Abstand muss also weniger als 3 Wagenlängen betragen, mindestens 1 Wagenlänge wird für die Lenkung benötigt, dann ist ein Autounfall eine unkontrollierbare Situation, die zum Durchdrehen und zum Tod aller 11 Personen führen kann.
Abgesehen davon, dass ich nicht glaube, dass es in der Realität ein Beispiel gibt, in dem es ein Dilemma gibt; die Lösung in diesen unwahrscheinlichen Fällen, wenn sie den Erwartungen der Gegenpartei entspricht, damit die Gegenpartei die Situation ebenfalls entschärfen kann.
quelle