The Saturday Papers: Würde AI Sie anlügen? ist ein Blog-Beitrag, der eine Forschungsarbeit mit dem Titel Toward Characters Who Observe, Tell, Misremember und Lie zusammenfasst . Dieses Forschungspapier beschreibt die Pläne einiger Forscher, "mentale Modelle" für NPCs in Videospielen zu implementieren. NPCs sammeln Informationen über die Welt und vermitteln dieses Wissen an andere Menschen (einschließlich menschlicher Spieler). Sie werden sich jedoch auch an dieses Wissen "falsch erinnern" (entweder dieses Wissen "mutieren" oder es einfach vergessen) oder sogar lügen:
Wenn ein Gesprächsthema angesprochen wird, kann eine Figur ihrem Gesprächspartner falsche Informationen übermitteln - genauer gesagt Informationen, die sie selbst nicht glaubt. Derzeit geschieht dies wahrscheinlich entsprechend der Affinität eines Charakters zum Gesprächspartner, und die Fehlinformationen werden zufällig ausgewählt.
Später in der Forschungsarbeit erläuterten sie ihre zukünftigen Pläne für Lügen:
Derzeit werden Lügen nur im Wissen der Charaktere gespeichert, die sie erhalten. Wir planen jedoch, dass Charaktere, die sie erzählen, sie auch verfolgen, damit sie bei der Konstruktion nachfolgender Lügen über vergangene Lügen nachdenken können. Während Charaktere derzeit nur über andere Charaktere lügen, planen wir, auch egozentrisches Lügen zu implementieren (DePaulo 2004), z. B. Charaktere, die über ihre Berufsbezeichnungen oder Beziehungen zu anderen Charakteren lügen. Schließlich stellen wir uns Charaktere vor, die entdecken, dass sie belogen wurden, ihre Affinitäten zu den Lügnern zu revidieren oder sie sogar zu konfrontieren.
Das Forschungspapier beschrieb auch, wie andere Videospielentwickler versuchten, lügende NPCs zu erstellen, wobei der Schwerpunkt auf den Unterschieden ihres Systems lag:
TALE-SPIN-Zeichen können sich gegenseitig anlügen (Meehan 1976, 183-84), wenn auch eher willkürlich, wie in unserer aktuellen Systemimplementierung. GOLEM implementiert eine Blockweltvariante, in der Agenten andere täuschen, um Ziele zu erreichen (Castelfranchi, Falcone und De Rosis 1998), während Mouth of Truth in einer Variante von Turings Nachahmungsspiel (De Rosis) eine probabilistische Darstellung des Glaubens an Charaktere verwendet, um die Täuschung von Agenten zu befeuern et al. 2003). In Christian (2004) injiziert eine Täuschungsplanerin einen ungenauen Weltzustand in die Überzeugungen einer Zielagentin, so dass sie unabsichtlich Handlungen ausführen kann, die die Hintergedanken einer Täuschungsagentin erfüllen. Schließlich setzen Agenten in Reis '(2012) Erweiterung auf FAtiMA mehrere Ebenen der Theorie des Geistes ein, um sich im Partyspiel Werwolf gegenseitig zu täuschen. Während alle oben genannten Systeme Charaktere zeigen, die andere Charaktere wahrnehmen - und in einigen Fällen täuschen -, scheint keines die folgenden Schlüsselkomponenten unseres Systems zu unterstützen: Wissensverbreitung und Speicherfehlbarkeit. ...
Wie einige andere oben erwähnte Systeme verfügt auch die Zwergenfestung über Charaktere, die autonom lügen. Wenn eine Figur ein Verbrechen begeht, kann sie eine andere Person fälschlicherweise in einen Zeugenbericht an einen Sheriff verwickeln, um sich selbst zu schützen oder sogar einen Feind zu beschuldigen. Diese Zeugenberichte werden jedoch nur vom Spieler gesehen; Charaktere geben sich keine falschen Zeugenberichte. Sie können jedoch über ihre Meinungen lügen, zum Beispiel aus Angst vor den Auswirkungen der Kritik an einem Führer. Schließlich modelliert Dwarf Fortress derzeit keine Probleme der Fehlbarkeit des Gedächtnisses - Adams ist besorgt, dass solche Phänomene aus Fehlern entstehen könnten, wenn sie dem Spieler nicht kunstvoll ausgedrückt werden.
Nein.
Insofern beinhaltet die Frage "wissentlich", was erfordern würde, dass jede KI etwas weiß . Wenn dies so etwas wie die Art und Weise Dinge Menschen kennen (obwohl interessanter es nicht erfordert tatsächlich , Dinge wissen), würde dies ein Gefühl der Individualität erfordern, wahrscheinlich Selbstbewusstsein, möglicherweise eine Art Bewusstsein, die Fähigkeit, eine Meinung abzugeben, und wahrscheinlich eine Möglichkeit, sein Wissen zu testen. Die meisten dieser Merkmale existieren bestenfalls wohl.
Ferner impliziert der Begriff "Lüge" ein Gefühl des Eigeninteresses, ein unabhängiges Verständnis des Ressourcenflusses im spieltheoretischen Sinne und nicht trivial ein Verständnis, ob die andere Entität im Gespräch lügt, um a Entscheidung mit jedem Grad an Genauigkeit. Daher kann keine KI andere als die in den anderen Antworten vorgeschlagenen trivialen Szenarien anlügen und falsche Informationen basierend auf bestimmten Kontexten wiedergeben, was nur eine einfache Eingabe / Ausgabe ist.
Als erfahrener Softwareentwickler kann ich bestätigen, dass es mindestens genauso einfach, wenn nicht sogar viel einfacher ist, falsche Informationen zu rendern, wenn das Ziel darin besteht, die richtige Ausgabe basierend auf einer Eingabe zu rendern.
quelle
Ja.
Lassen Sie mich jetzt demonstrieren, indem Sie eine lügende KI machen. (Python-Code)
Und eine täuschende:
KI ist so ein allgemeiner Begriff. Es könnte verwendet werden, um fast alles zu beschreiben. Sie haben nicht angegeben, dass es sich um eine allgemeine KI handeln muss.
KI kann nicht denken. Sie sind Computerprogramme. Sie haben keine Seele oder Willen. Nur der Programmierer (oder wenn er durch Evolution entwickelt wurde ... niemand , aber das ist kein Thema) kann eine KI wissentlich so programmieren, dass sie lügt.
Ja, das ist passiert. Es heißt Malware. Einige fortgeschrittene Malware-Programme sprechen mit Ihnen und geben vor, technischer Support zu sein, und antworten mit allgemeinen menschlichen Antworten. Aber Sie können sagen "gut, es versteht nicht wirklich". Das wäre aber einfach. Neuronales Netz + mehr CPU als auf dem Planeten vorhanden * (es wird in ein paar Jahren existieren und erschwinglich sein) + einige Beispielantworten = KI des neuronalen Netzwerks (dasselbe in yo noggin), das versteht und reagiert.
Das ist aber nicht nötig. Ein relativ einfaches neuronales Netz mit nur wenigen Supercomputern, die in einen Raum passen könnten, könnte einen Menschen überzeugen. Es versteht nicht.
Also, es ist wirklich ...
Technisch gesehen nein, aber es ist möglich und wenn man die Regeln streckt ja.
* Oder noch einfacher:
Akkreditierung: Ich bin ein Programmierer (siehe mein Stack Overflow-Konto), der ein wenig über KI weiß.
quelle
Ja.
quelle