Isaac Asimovs berühmte Drei Gesetze der Robotik entstanden im Kontext von Asimovs Science-Fiction-Geschichten. In diesen Geschichten dienen die drei Gesetze als Sicherheitsmaßnahme, um zu verhindern, dass unzeitgemäße oder manipulierte Situationen im Chaos explodieren.
Meistens fanden Asimovs Erzählungen einen Weg, sie zu brechen, und veranlassten den Schriftsteller, die Gesetze selbst mehrfach zu ändern. Zum Beispiel hat er in einigen seiner Geschichten das Erste Gesetz modifiziert , ein Viertes (oder Zeroth) Gesetz hinzugefügt oder sogar alle Gesetze insgesamt entfernt .
Es ist jedoch leicht zu argumentieren, dass in der Populärkultur und sogar auf dem Gebiet der KI-Forschung die Gesetze der Robotik ziemlich ernst genommen werden. Gibt es Argumente, die das Nebenproblem der unterschiedlichen, subjektiven und sich gegenseitig ausschließenden Auslegungen der Gesetze ignorieren und belegen, dass die Gesetze an sich fehlerhaft sind oder alternativ stark genug für die Anwendung in der Realität? Wurde eine bessere, strengere Sicherheitsheuristik für diesen Zweck entwickelt?
quelle
Antworten:
Asimovs Gesetze sind nicht stark genug, um in der Praxis angewendet zu werden. Stärke spielt keine Rolle, wenn man bedenkt, dass Wörter, die in englischer Sprache geschrieben sind, erst subjektiv interpretiert werden müssen, um überhaupt eine Bedeutung zu haben. Eine gute Diskussion dazu finden Sie hier .
So transkribieren Sie einen Auszug:
Man kann sich leicht vorstellen, dass Asimov klug genug war, dies zu wissen, und sich mehr für das Schreiben von Geschichten interessierte als für das Entwerfen realer AI-Steuerungsprotokolle.
In dem Roman Neuromancer wurde vorgeschlagen, dass AIs möglicherweise als Kontrolle gegeneinander dienen könnten. Die bevorstehende Singularität von Ray Kurzweil oder die Möglichkeit hyperintelligenter AGIs lassen für den Menschen möglicherweise kaum eine Möglichkeit, AIs zu kontrollieren, und lassen Peer-Regulation als einzig mögliche Möglichkeit übrig.
Es ist erwähnenswert, dass Eliezer Yudkowsky und andere ein Experiment durchführten, bei dem Yudkowsky die Rolle einer superintelligenten KI mit der Fähigkeit zu sprechen spielte, aber keine andere Verbindung außerhalb einer verschlossenen Box. Die Herausforderer hatten lediglich die Aufgabe, die KI um jeden Preis in der Box zu halten. Yudkowsky entkam beide Male.
quelle
Asimov hat die drei Gesetze speziell erstellt, um zu beweisen, dass keine drei Gesetze ausreichen, egal wie vernünftig sie auf den ersten Blick erscheinen. Ich kenne einen Mann, der den Mann kannte und er bestätigte dies.
quelle
Betrachten Sie Asimovs erstes Gesetz der Robotik:
Dieses Gesetz ist bereits problematisch, wenn es um selbstfahrende Autos geht.
Was ist das Problem hier, fragst du? Nun, Sie werden wahrscheinlich mit dem klassischen ethischen Gedankenexperiment vertraut sein, das als Trolley-Problem bekannt ist . Die allgemeine Form des Problems ist folgende:
Selbstfahrende Autos müssen tatsächlich reale Variationen des Trolley-Problems implementieren, was im Grunde bedeutet, dass selbstfahrende Autos so programmiert werden müssen, dass sie Menschen töten .
Das bedeutet natürlich nicht, dass ALLE Roboter zum Töten programmiert werden müssen, aber selbstfahrende Autos sind ein gutes Beispiel für einen Robotertyp, der dies tut.
quelle