Welche Art von simulierter Umgebung ist komplex genug, um eine allgemeine KI zu entwickeln?

11

Stellen Sie sich vor, Sie versuchen eine simulierte virtuelle Umgebung zu erstellen, die kompliziert genug ist, um eine "allgemeine KI" (die ich als selbstbewusste KI definiere) zu erstellen, aber so einfach wie möglich ist. Wie würde diese minimale Umgebung aussehen?

dh Eine Umgebung, die nur ein Schachspiel war, wäre zu einfach. Ein Schachprogramm kann keine allgemeine KI sein.

Eine Umgebung mit mehreren Agenten, die Schach spielen und ihre Ergebnisse miteinander kommunizieren. Würde dies eine allgemeine KI darstellen? (Wenn Sie sagen können, dass ein Schachgroßmeister, der den ganzen Tag über Schach nachdenkt, eine allgemeine KI hat? Ist er während seiner Zeit, wenn er über Schach nachdenkt, anders als ein Schachcomputer?)

Was ist mit einer 3D-simähnlichen Welt? Das scheint zu kompliziert zu sein. Warum kann es in einer 2D-Welt keine allgemeine KI geben?

Was wäre ein Beispiel für eine einfache Umgebung, aber nicht zu einfach, damit die KI (n) Selbstbewusstsein haben können?

Zooby
quelle
Ich habe meine Antwort geändert, um die von Ihnen gestellten Fragen ausführlicher zu beantworten.
DukeZhou
Vermutlich schafft die Negationsfrage die Umwelt KI, es sei denn, Gott existiert letztendlich ohne Umwelt oder aufeinanderfolgende Schöpfer in ähnlicher Weise.
Bobs
"Selbstbewusste KI" ist nicht aussagekräftiger als "allgemeine KI". Was bedeutet "selbstbewusst"?
Dunk

Antworten:

5

Ich denke, dies ist eine der besten AGI-bezogenen Fragen, die ich in diesem Forum gesehen habe.

Ich werde alle Themen über "Was ist ein AGI", "Simulationsspiel", ... überspringen. Diese Themen wurden über Jahrzehnte diskutiert und sind heutzutage meiner Meinung nach eine Sackgasse.

Daher kann ich nur mit meiner persönlichen Erfahrung antworten:

Es ist ein Grundsatz bei der Berechnung, dass eine beliebige Anzahl von Dimensionen, einschließlich einer zeitlichen, in einem Raum endlicher Größe auf 1D reduziert werden kann.

In praktischen Beispielen ist die 1D-Darstellung jedoch schwer zu analysieren und zu visualisieren. Es ist praktischer, mit Graphen zu arbeiten, die als Zwischenstufe zwischen 1D und 2D angesehen werden können. Grafiken ermöglichen die Darstellung aller notwendigen Fakten und Beziehungen.

Wenn wir beispielsweise versuchen, eine AGI zu entwickeln, die im Bereich der Mathematik arbeiten kann, kann jeder Ausdruck (der Mensch, den wir in einer 2D-Darstellung mit Rationalen, Indizes, Integralen usw. schreiben) als 1D (als Ausdruck) dargestellt werden geschrieben in einer Programmquelle), aber diese 1D muss analysiert werden, um den Graphen zu erreichen, der analysiert oder ausgeführt werden kann. Somit ist der Graph, der sich nach dem Parsen des Ausdrucks ergibt, die praktischste Darstellung.

Ein weiteres Beispiel: Wenn wir einen Agenten suchen, der sich durch eine 3D-Welt bewegt, kann diese Welt als leerer Raum mit Objekten mit einigen Eigenschaften angesehen werden. Nach der ersten Phase der Szenenanalyse und Objekterkennung (entspricht dem Parser im vorherigen Beispiel) erreichen wir erneut ein Diagramm.

Um wirklich im Bereich der AGI zu arbeiten, schlage ich vor, die Probleme der Szenenanalyse, Objekterkennung, Spracherkennung (Narrow AI) zu überspringen und direkt über den repräsentativen Graphen zu arbeiten.

pasaba por aqui
quelle
1
Es ist interessant, dass Sie über Grafiken sprechen. Weil mein Instinkt mir sagte, dass eine Art Entität, die durch die Knoten eines Graphen navigiert, komplex genug sein könnte. Aber ich mache mir Sorgen, dass ein endlicher Graph mit endlichen Dingen eher begrenzt wäre. Aber auf andere Weise ist unser eigenes Leben eher begrenzt, wenn Sie darüber nachdenken: essen, arbeiten, schlafen, wiederholen. Wenn die Entitäten jedoch mit anderen Entitäten konkurrieren (oder zusammenarbeiten) müssten, würde möglicherweise ein komplexeres Verhalten auftreten, wenn sie versuchen, sich gegenseitig zu erraten.
Zooby
3

Ich denke, das Wichtigste ist, dass die Zeit auf irgendeine Weise simuliert werden muss. Denken Sie selbstbewussten Chatbot. Um dann "selbstbewusst" zu sein, könnte die Umgebung Daten sein, die über die Zeit eingespeist werden und als "selbst" und "andere" unterschieden werden können. Damit meine ich wohl "Selbst" ist der Teil, den es direkt beeinflusst, und "Andere" ist der Teil, der indirekt oder überhaupt nicht beeinflusst wird. Davon abgesehen kann es wahrscheinlich in ziemlich abstrakten Umgebungen leben. Der Grund, warum Zeit so wichtig ist, ist, dass der kognitive Algorithmus ohne sie nur ein mathematisches Problem löst.

Andrew
quelle
1
In der Computertheorie wird die Zeit auf eine Abfolge von Ereignissen reduziert. Somit kann ein 1D-Ereignis (dh eine Zeichenfolge), das sich mit der Zeit entwickelt, als 2D-Ereignis (Array von Zeichenfolgen) oder 1D-Sequenz (Folge von Zeichenfolgen) angesehen werden.
Pasaba por Aqui
1
Ich bin nicht einverstanden mit der Vorstellung, dass die Zeit in der realen Welt (oder wohl für eine ausreichend interessante künstliche) angemessen als "nur eine andere Dimension" abgetan werden kann. Man benötigt mindestens eine Zeitdimension, um eine Darstellung von Entropie oder Veränderung zu unterstützen. Und ich würde sagen, dass jede angemessene Darstellung dynamischer Systeme eine angemessene Unterscheidung einer Zeitdimension von der Position erfordert. Sogar Ihr Darstellungsvorschlag gibt der Reihenfolge der Sequenz einen besonderen Platz.
42
1
@ 42- Zufällig stieß ich bei meinen Bemühungen, die topologische Struktur von Sudoku und lateinischen Quadraten mithilfe der Mengenlehre als probabilistische Matrixfunktionen formal zu definieren, auf eine Wand, bis ich anfing, mich mit Hamiltonian Evolution zu befassen und t (Zeit oder) erkannte. "Turns" in der neuen spieltheoretischen Konzeption orthogonaler Arrays) war das fehlende Element!
DukeZhou
Denken Sie jetzt über dynamische Systeme in der Allgemeinen Relativitätstheorie nach. Vielleicht benötigen Sie eine "Schwerkraft" -Metrik, um ein lokales Wertpotential zu berechnen? Wären einige Konfigurationen "Schwarze Löcher"
42
2

Allgemeine KI kann in einer 2D-Welt absolut existieren, nur dass eine verallgemeinerte KI (hier definiert als "konsistente Stärke über eine Reihe von Problemen") in diesem Zusammenhang sich immer noch deutlich von einer künstlichen allgemeinen Intelligenz unterscheidet , die als "ein Algorithmus, der dies kann" definiert ist eine intellektuelle Aufgabe ausführen, die ein Mensch kann. "

Auch dort ist die Definition von AGI unscharf, denn "welcher Mensch?" (Die menschliche Intelligenz ist ein Spektrum, in dem Individuen in unterschiedlichen Kontexten unterschiedliche Fähigkeiten zur Problemlösung besitzen.)


Künstliches Bewusstsein : Leider ist Selbstbewusstsein / Bewusstsein ein stark metaphysisches Problem, das sich von der Fähigkeit zur Problemlösung (Intelligenz) unterscheidet.

Sie möchten auf jeden Fall einen Blick auf das " Chinesische Zimmer " und die Widerlegungen werfen .


Wahrscheinlich lohnt es sich, das holographische Prinzip zu betrachten : "Ein Konzept in der Physik, bei dem ein Raum als Hologramm mit n-1 Dimensionen betrachtet wird." Natürlich können Modelle und Spiele auf diese Weise strukturiert werden.

Ein weiterer Ort, den es zu erkunden gilt, sind Theorien über die Entstehung von Superintelligenz in Conways Spiel des Lebens . (Kurz gesagt, mein Verständnis ist, dass, sobald Forscher herausgefunden haben, wie eine beliebige Zahl innerhalb der zellularen Automaten erzeugt werden kann, die Möglichkeit eines entstehenden Gefühls bei einem Spielbrett von ausreichender Größe zumindest theoretisch vernünftig ist.)

DukeZhou
quelle
2

Von den bisherigen Antworten waren die von @DukeZhou die provokantesten. Zum Beispiel bringt der Verweis auf die Kritik des chinesischen Raums die Behauptung von Searle auf den Punkt, dass irgendeine Form von Intentionalität in der künstlichen Umgebung Unterstützung benötigen könnte. Dies könnte die Notwendigkeit eines Wertesystems oder eines Schmerz-Lust-Systems implizieren, dh etwas, bei dem gute Konsequenzen "erlebt" oder aktiv gesucht und schlechte Konsequenzen vermieden werden können. Oder es muss möglicherweise ein gewisses Potenzial für das individuelle Aussterben (Tod oder Kündigung) erkannt werden. Die Möglichkeit des "Ich-Todes"Möglicherweise muss ein hoher negativer Wert vorliegen. Das könnte bedeuten, dass eine künstliche Welt "andere Köpfe" oder andere Agenten umfassen sollte, die der aufstrebende oder lernende intelligente Agent (in gewissem Sinne) beobachten und "reflektieren" könnte, dh eine Intelligenz wie seine eigene erkennen. In diesem Sinne wird der kartesische Syllogismus "Ich denke, deshalb bin ich" umgewandelt in: Ich (oder besser gesagt ich als KI) sehe Beweise dafür, dass andere denken, und "durch Gawd kann ich auch". Diese "anderen" können entweder andere Lernsysteme (AGIs) oder ein Kontakt mit diskreten Eingaben von Menschen sein, die durch die künstliche Umgebung vermittelt werden. Wikipedia-Diskussion zum "Reverse Turing Test"

Die Erwähnung der Dimensionalität sollte eine Diskussion über die erforderliche Repräsentationstiefe einer "Physik" der Welt außerhalb der KI provozieren. Eine gewisse Darstellung von Zeit und Raum erscheint notwendig, dh eine dimensionale Substruktur für den Fortschritt zur Zielerreichung. Die Blocks World war ein frühes Spielzeugproblem, dessen Lösung in den 60er und 70er Jahren des letzten Jahrhunderts Optimismus hervorrief, dass erhebliche Fortschritte erzielt wurden. Ich bin mir keiner Anstrengung bewusst, Schmerzen oder Vergnügen im SHRDLU-Programm dieser Ära zu programmieren (keine Blockaden auf den Zehen des Programms), aber alle interessanten Science-Fiction-Darstellungen von KI haben eine gewisse Anerkennung von "physischen" nachteiligen Konsequenzen in der echten Welt".

Bearbeiten: Ich werde in dieser Umgebung einen Bedarf an "Entitäten mit Merkmalen" hinzufügen, die (von jedem der "anderen", die mit der AGI interagieren) als Dateneingabe für die Bemühungen um Induktion und Identifizierung "wahrgenommen" werden können und Rückschluss auf Beziehungen. Dies schafft eine Basis für eine gemeinsame "Erfahrung".

42-
quelle
Willkommen bei AI und vielen Dank für Ihren Beitrag! (Der Link "Ego-Tod" ist defekt, aber ich war mir nicht sicher, ob Sie beabsichtigten, einen Link zu der Frage oder der spezifischen Antwort zu erstellen, wodurch die Korrektur bis zur Klärung verzögert wird.) Ausgezeichnete Links, übrigens! Darf ich fragen, ist Ihr Spitzname ein Hinweis auf die vorgeschlagene Antwort auf die Frage "Wie viele Straßen muss ein Mann hinuntergehen?" :)
DukeZhou
Nicht wirklich. Im Internet weiß niemand, ob Sie eine allgemeine KI sind.
42
2

Obwohl @pasaba por aqui eine gute Antwort ist, stimme ich @zooby zu, dass ein Diagramm möglicherweise zu einfach ist. Wenn sich Menschen in einer Umgebung befunden hätten, in der die Optionen ertrunken wären, oder 5000 Schritte unternommen hätten, um ein Boot zu bauen, hätten wir niemals ein Meer überquert. Ich denke, dass jedes Diagramm, wenn es von Hand entworfen wird, nicht komplex genug wäre, um den Agenten als allgemeine KI zu bezeichnen. Die Welt würde genug Zwischenzustände brauchen, um nicht mehr als Grafik, sondern zumindest als mehrdimensionaler Raum beschrieben zu werden.

Ich denke, es gibt 2 Punkte, die Sie berücksichtigen müssten. Was ist "einfach" und wann würden Sie es als "allgemeine KI" erkennen? Ich finde selbstbewusste KI nicht zufriedenstellend, da wir nichts messen können, was Bewusstsein genannt wird. wir können nur seinen Zustand und seine Interaktion mit der Umwelt sehen.

Für 1. Ich würde sagen, dass die Welt, in der wir leben, eigentlich ziemlich einfach ist. Es gibt 4 Naturkräfte, ein paar Naturschutzgesetze und eine Reihe von Partikeltypen, die fast alles erklären. Es gibt nur viele dieser Partikel und dies hat zu einer ziemlich komplexen Welt geführt. Natürlich ist die Simulation teuer, aber wir könnten einige Abkürzungen nehmen. Vor 200 Jahren brauchten die Menschen nicht die gesamte Quantenmechanik, um die Welt zu erklären. Wenn wir Protonen, Neutronen und die starke Kraft durch die Atome im Periodensystem ersetzen würden, wäre alles in Ordnung. Das Problem ist, dass wir 3 allgemeinere Gesetze durch 100 spezifische Instanzen ersetzt haben. Damit die simulierte Umgebung komplex genug ist, muss dieser Trend bestehen bleiben.

Das bringt mich zu 2. Ich denke, wir wären nur dann wirklich zufrieden mit dem Agenten, der die allgemeine KI ausdrückt, wenn er gezielt mit der Umgebung auf eine Weise interagieren kann, die uns verblüfft, während er eindeutig davon profitiert (also nicht zufällig). Das könnte ziemlich schwierig sein oder sehr lange dauern. Eine entspanntere Bedingung wäre es, Werkzeuge zu bauen, von denen wir erwarten würden, dass sie gebaut werden, um so die Beherrschung der eigenen Umgebung zu demonstrieren. Zum Beispiel wurden vor 100.000 bis 900.000 Jahren Hinweise auf Boote gefunden, was ungefähr der Zeitskala entspricht, in der sich frühe Menschen entwickelten. Obwohl wir uns als intelligent betrachten würden, bin ich mir nicht sicher, ob wir einen Bootsbauer als General Intelligence betrachten würden, da dies eine ziemlich einfache Erfindung zu sein scheint. Aber ich denke, wir wären nach ein paar solchen Erfindungen zufrieden.

Ich denke, wir brauchen eine Sim-ähnliche Welt, das ist viel komplizierter als das Spiel. Mit Tausenden von Elementtypen, vielen Instanzen jedes Elements und genügend Freiheitsgraden, um mit allem zu interagieren. Ich denke auch, wir brauchen etwas, das uns bekannt vorkommt, um einen Agenten als intelligent anzuerkennen. Eine komplizierte 3D-Welt wie Minecraft wäre also die einfachste Welt, in der wir die Entstehung allgemeiner Intelligenz erkennen würden.

csiz
quelle
0

"Künstliche allgemeine Intelligenz" unterscheidet sich von einem Agenten, der in einer Umgebung intelligent handelt. Denn laut Literatur werden solche Mittel als "Narrow AI" bezeichnet. Ein AGI-System ist die Umgebung. Das heißt, die neueste Micromouse-Herausforderung ist ein AGI-System mit dem Ziel, schmale KI-Systeme zu entwickeln.

Die Entwicklung eines AGI ist gleichbedeutend mit der Entwicklung eines Robotikwettbewerbs. Es ist in einem Regelwerk formalisiert und dient als Umgebung zum Lernen, Programmieren von Software und Diskutieren der Ergebnisse. In jedem Fall ist ein AGI-System ein sozialer Wettbewerb, was bedeutet, dass es für Teams attraktiv ist, am Wettbewerb teilzunehmen. AGI antwortet nicht, wie man Intelligenz realisiert, es ist ein Test, um sie zu messen. Sogenannte menschliche Gehirne, kognitive Architekturen und allgemeine Problemlöser wurden nicht als enge KI für intelligentes Handeln entwickelt, sondern als Test für eine intelligente Maschine.

Wie können wir mit einem Computerprogramm messen, wenn ein anderes Computerprogramm intelligent ist? Eine Möglichkeit ist die Menschensimulationstheorie. Das heißt, wir testen, ob sich das Computerprogramm wie ein Mensch verhält, und der Turing-Test hat die Verpflichtung, das Kurzzeitgedächtnis, das Langzeitgedächtnis und die Fähigkeit, neue Dinge zu lernen, zu testen. In seiner einfachsten Form kann der Turing-Test mit einem einfachen Formular durchgeführt werden, das als Mensch ausgefüllt werden muss. Es ist jedoch auch möglich, den Menschen aus der Schleife zu nehmen und die Intelligenz eines anderen Computers mit einem Computer zu testen . Zu diesem Zweck wurden SOAR, OpenCog und AIXI entwickelt.

Manuel Rodriguez
quelle
Es ist schwierig, die Beziehung zwischen dieser Antwort und der ursprünglichen Frage herzustellen.
Pasaba por Aqui