Könnte eine KI seitlich denken und gleichzeitig „ethisch suboptimale“ Entscheidungen vermeiden?

13

In dem kürzlich erschienenen PC-Spiel The Turing Test benötigt die KI ("TOM") Hilfe von Ava, um durch einige Puzzleräume zu kommen. TOM sagt, er könne die Rätsel nicht lösen, weil er nicht " seitlich denken " dürfe . Insbesondere sagte er, er hätte nicht gedacht, eine Kiste durch ein Fenster zu werfen, um den ersten Raum zu lösen. Seine Schöpfer, so heißt es in der Geschichte, haben diese Fähigkeit abgeschaltet, weil ein solches Denken "ethisch suboptimale" Lösungen hervorbringen könnte, wie zum Beispiel einen Arm abhacken, um auf einer Druckplatte zu bleiben.

Müssten alle kreativen Fähigkeiten zum Lösen von Rätseln aus einer KI entfernt werden, um die Ergebnisse angemessen zu halten, oder könnten wir einige Vorteile des Querdenkens erzielen, ohne einen Arm zu verlieren?

Ben N
quelle

Antworten:

17

Nein , mit einem aber . Wir können kreative und dennoch ethische Probleme lösen, wenn das System über ein vollständiges Ethiksystem verfügt. Andernfalls ist Kreativität standardmäßig unsicher.

Man kann KI-Entscheidungsansätze in zwei Typen einteilen: interpolative Denker und extrapolative Denker.

Interpolative Denker lernen, zu klassifizieren und nachzuahmen, woraus sie lernen, und versuchen nicht, vernünftige Ergebnisse außerhalb ihres Trainingsbereichs zu erzielen. Sie können sich diese als Interpolation zwischen Trainingsbeispielen vorstellen und alle mathematischen Garantien und Vorbehalte als andere statistische Techniken nutzen.

Extrapolative Denker lernen, die zugrunde liegenden Prinzipien zu manipulieren, wodurch sie diese Prinzipien auf bisher nicht berücksichtigte Weise kombinieren können. Das relevante Feld für die Intuition ist hier die numerische Optimierung , von der das einfachste und bekannteste Beispiel die lineare Programmierung ist , und nicht die statistischen Felder, die das maschinelle Lernen hervorgebracht haben. Sie können sich vorstellen, dass sie über Schulungsbeispiele hinaus extrapoliert werden (in der Tat erfordern viele von ihnen nicht einmal Schulungsbeispiele oder verwenden diese Beispiele, um zugrunde liegende Prinzipien abzuleiten).

Das Versprechen extrapolativer Denker ist, dass sie diese „lateralen“ Lösungen viel schneller finden können, als es die Menschen könnten. Das Problem bei diesen extrapolativen Denkern ist, dass sie nur die gesprochenen Prinzipien verwenden, keine unausgesprochenen, die zu offensichtlich scheinen, um sie zu erwähnen.

Ein Attribut von Lösungen für Optimierungsprobleme ist, dass der Merkmalsvektor oft in irgendeiner Weise "extrem" ist. Bei der linearen Programmierung ist mindestens ein Scheitelpunkt des realisierbaren Lösungsraums optimal, und so finden einfache Lösungsmethoden einen optimalen Scheitelpunkt (der von Natur aus als Scheitelpunkt fast nicht realisierbar ist).

Als weiteres Beispiel wird die Minimaltreibstofflösung für das Bewegen eines Raumfahrzeugs von einer Position zur anderen als „ Knall-Knall“ bezeichnet , bei der Sie das Fahrzeug am Anfang und am Ende der Flugbahn so schnell wie möglich beschleunigen und dazwischen mit maximaler Geschwindigkeit ausrollen .

Während eine Tugend, wenn das System richtig verstanden wird (Bang-Bang ist in vielen Fällen optimal), ist dies katastrophal, wenn das System falsch verstanden wird. Mein Lieblingsbeispiel ist hier Dantzigs Diätproblem (Diskussion beginnt auf Seite 5 des PDF), wo er versucht, seine Diät mithilfe von Mathematik zu optimieren. Unter seiner ersten Bedingung soll er 500 Gallonen Essig pro Tag trinken. Unter seiner zweiten, 200 Brühwürfel. Unter seinem dritten, zwei Pfund Kleie. Die Überlegungen, die diese offensichtlich schlechten Ideen hervorrufen, sind nicht im System verankert, und so schlägt das System sie unschuldig vor.

Wenn Sie das Wissen und die Werte, mit denen eine Person diese Pläne beurteilt, vollständig in die KI kodieren können, sind extrapolative Systeme genauso sicher wie diese Person. Sie werden in der Lage sein, die falschen Arten von extremen Plänen zu erwägen und abzulehnen und Ihnen die richtigen Arten von extremen Plänen zu hinterlassen.

Wenn Sie dies jedoch nicht können, ist es sinnvoll, keinen extrapolativen Entscheidungsträger und stattdessen einen interpolativen zu erstellen. Das heißt, anstatt sich zu fragen, wie ich Ziel X am besten erreiche. es fragt sich "Was würde eine Person in dieser Situation tun?". Letzteres mag bei der Erreichung von Ziel X viel schlimmer sein, hat jedoch ein viel geringeres Risiko, andere Ziele zu opfern, um X zu erreichen.

Matthew Graves
quelle
2

Ethik beinhaltet die Beziehung der Bedürfnisse zwischen zwei oder mehr Parteien. Wie Matthew Graves sagte, wenn der KI der ausreichende menschliche Kontext fehlt (Verständnis der Bedürfnisse), wird dies scheinbar perverses ethisches Verhalten hervorrufen.

Und seien wir ehrlich, einige Leute würden die Arme anderer Leute abschneiden und sie auf Druckplatten legen. Selbst die Besten von uns werden nicht in der Lage sein, 100% ig mit den Bedürfnissen anderer mitzufühlen - wir raten bestenfalls. Und dann gibt es diese seltenen Situationen, in denen ich eigentlich möchte, dass du meinen Arm abschneidest und ihn auf eine Druckplatte legst, vielleicht um einen geliebten Menschen zu retten.

Wenn wir eine Sache machen könnten , die mit dem, was ein Menschen sympathisieren könnten vielleicht in einer bestimmten beliebigen Situation braucht, dann haben wir geschaffen entweder A) eine künstliche menschliche Intelligenz (AHI) (die mehr oder weniger fehlbar sein könnten, wie ein Mensch), oder B) ein Orakel, das viel schneller als in menschlichen Zeiträumen über alle möglichen menschlichen Bedürfnisse urteilen kann - in diesem Fall würden Sie keine bewusste KI benötigen , da alle menschlichen Bedürfnisse und Lösungen durch formale Spezifikation vorberechnet werden könnten, die ist wohl absurd zu überlegen.

Doxosophoi
quelle
0

Sie können die Programmierung auch als ethischen Bestandteil des Designs betrachten. Die KI wird auf der Grundlage dessen handeln, was ihr als ethisch wichtig oder nicht wichtig befohlen wurde. Es kann / sollte sogar Teil der Parameter sein, die den Lösungsfindungsprozess formen, der eine verfeinerte und kreativere Lösung ermöglichen könnte.

Wir verstehen die Grundlagen der Ethik unter normalen Umständen, aber wenn wir nicht vorhersagen können, wie sich ein Mensch in einem ethischen Rätsel verhält, können wir durchsetzen, was eine KI nicht tun würde.

Solange wir die Kontrolle über den Mechanismus haben, der eine KI antreibt, sind wir sicher dafür verantwortlich, ethische Fehler zu verursachen. Das Problem liegt in der autodidaktischen KI mit der Fähigkeit, Anweisungen außer Kraft zu setzen. (CF Asimov Gesetze.)

Die Art und Weise, wie die KI kreativ ist, scheint in diesem Fall irrelevant zu sein.

Vinh NPL
quelle
-1

Vieles davon hängt von der Breite der Überlegungen ab. Was wären zum Beispiel die mittel- und langfristigen Auswirkungen des Querdenkens? Der Roboter könnte einen Arm für eine Druckplatte abtrennen, aber dies würde bedeuten, dass die Person keinen Arm mehr hatte, bestenfalls eine funktionelle Einschränkung, dass die Person möglicherweise ausblutet und stirbt / stark eingeschränkt ist und dass die Person (und die Personen darin) allgemein) würden beide nicht mehr zusammenarbeiten und wahrscheinlich versuchen, den Roboter zu eliminieren. Menschen können seitwärts denken, weil sie diese Dinge berücksichtigen - Ethik ist eigentlich nichts anderes als eine Reihe von Richtlinien, die diese Überlegungen umfassen. Der Roboter könnte auch so konstruiert sein, dass er diese externen Effekte berücksichtigt.

Wenn alle Stricke reißen,

Asimovs Gesetze der Robotik: (0. Ein Roboter darf die Menschheit nicht verletzen oder durch Untätigkeit zulassen, dass die Menschheit Schaden nimmt.) 1. Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch zu ihm kommt Schaden. 2. Ein Roboter muss Anweisungen von Menschen befolgen, es sei denn, solche Anweisungen widersprechen dem Ersten Gesetz. 3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz in Konflikt steht

John
quelle