Kann eine technologische Singularität nur mit Superintelligenz auftreten?

10

In Kapitel 26 des Buches Künstliche Intelligenz: Ein moderner Ansatz (3. Auflage) wird im Lehrbuch die "technologische Singularität" erörtert. Es zitiert IJ Good, der 1965 schrieb:

Lassen Sie eine ultra-intelligente Maschine als eine Maschine definiert werden, die alle intellektuellen Aktivitäten eines jeden Menschen, wie klug er auch sein mag, bei weitem übertreffen kann. Da das Design von Maschinen eine dieser intellektuellen Aktivitäten ist, könnte eine hochintelligente Maschine noch bessere Maschinen entwerfen. es würde dann zweifellos eine "Intelligenzexplosion" geben, und die Intelligenz des Menschen würde weit zurückgelassen werden. Somit ist die erste hochintelligente Maschine die letzte Erfindung, die der Mensch jemals machen muss, vorausgesetzt, die Maschine ist fügsam genug, um uns zu sagen, wie wir sie unter Kontrolle halten können.

Später im Lehrbuch haben Sie folgende Frage:

26.7 - IJ Good behauptet, dass Intelligenz die wichtigste Qualität ist und dass der Bau hochintelligenter Maschinen alles verändern wird. Ein empfindungsfähiger Gepard kontert, dass "Geschwindigkeit wichtiger ist; wenn wir ultraschnelle Maschinen bauen könnten, würde das alles ändern", und ein empfindungsfähiger Elefant behauptet: "Sie liegen beide falsch; wir brauchen ultrastarke Maschinen." Was halten Sie von diesen? Argumente?

Es scheint, dass die Lehrbuchfrage ein implizites Argument gegen IJ Good ist. Gut kann sein, Intelligenz als wertvoll zu behandeln, einfach weil die Stärken des Menschen in diesem Merkmal liegen, das "Intelligenz" genannt wird. Aber andere Eigenschaften könnten stattdessen gleich bewertet werden (Geschwindigkeit oder Stärke) und Lebewesen könnten wild darüber spekulieren, dass ihre bevorzugten Eigenschaften von irgendeiner Maschine "maximiert" werden.

Ich frage mich daher, ob eine Singularität auftreten könnte, wenn wir Maschinen gebaut hätten, die nicht die Intelligenz maximieren, sondern stattdessen ein anderes Merkmal maximieren (eine Maschine, die immer stärker wird, oder eine Maschine, die immer schneller wird). Diese Maschinentypen können ebenso transformativ sein - ultraschnelle Maschinen können Probleme aufgrund von "Brute Force" schnell lösen, und ultrastarke Maschinen können ihre Rohleistung für eine Vielzahl von physischen Aufgaben nutzen. Vielleicht kann eine Ultra-X-Maschine keine andere Ultra-X-Maschine bauen (wie IJ Good das Design von Maschinen als intellektuelle Aktivität betrachtete), aber eine sich ständig selbst verbessernde Maschine würde ihre Schöpfer immer noch weit zurücklassen und ihre Schöpfer dazu zwingen davon abhängig.

Sind technologische Singularitäten auf Ultra-Intelligenzen beschränkt? Oder werden technologische Singularitäten durch Maschinen verursacht, die keine "starke KI" sind, aber dennoch "Ultra" -Optimierer?

Linke SE Ein 10_6_19
quelle

Antworten:

4

Das wäre ein Nein für Geschwindigkeit oder Stärke, wenn Sie eine super starke Einheit haben, aber keine neuen Materialien erforschen können, wird es schnell begrenzt sein, dasselbe gilt für Geschwindigkeit. Grundsätzlich brauchen Sie etwas außerhalb ihres Fachgebiets, um sie zu verbessern, was macht eine außer Kontrolle geratene Verbesserung unmöglich.

Wir haben zwar bereits super starke und superschnelle Maschinen, das sind Autos, Lastwagen, hydraulische Pressen, industrielle Exoskelette usw. Aber obwohl wir durch die Verwendung der alten bessere bauen können, müssen wir noch etwas erforschen das kann von alten nicht verbessert werden.

Was wir für eine Singularität brauchen, ist ein Bereich, in dem eine Verbesserung die weitere Verbesserung erleichtert. Und ich kenne kein Gebiet, in dem es nicht um Intelligenz geht. Wenn es eine gibt, kann es möglich sein, dass dort eine nicht intelligente Singularität vorliegt.

satibel
quelle
0

"Monte Carlo" scheint derzeit die beste Methode für algorithmische Kreativität zu sein. (dh die Maschine trifft zufällige Entscheidungen und prüft, ob sie zu etwas Nützlichem führen.)

Während es offensichtlich erscheint, dass kreative Verbindungen, die aus dem Verständnis entstanden sind, denen überlegen sind, die zufällig sind, sollte die Maschine, wenn sie schnell genug ist, in der Lage sein, durch reine "rohe Gewalt" zu gewinnen.

Das heißt, die Evolution vor der menschlichen Führung basierte nicht auf Intelligenz. * Die Evolution basierte vielmehr auf zufälligen Mutationen, die entweder nützlich oder schädlich sind.


* Die Einschränkung besteht darin, dass Menschen, die Algorithmen entwickeln und Gene verändern (entweder in einem Labor oder durch Tierhaltung und Gartenbau), eine neue Form der Evolution darstellen, die tatsächlich in der menschlichen Intelligenz und dem menschlichen Verlangen wurzelt.

DukeZhou
quelle
-1

Dies ist möglicherweise nicht das, wonach Sie gesucht haben, aber technisch gesehen ja. Obwohl nicht für Geschwindigkeit und Kraft. Sie können jedoch zufällig neue mathematische / physikalische / chemische Lösungen erraten, um das zufällige Erraten effizienter zu gestalten (im Grunde alles, was es der Maschine ermöglicht, schneller zu berechnen und möglicherweise den Effekt dieser Ergebnisse zu simulieren) und so technisch etwas Ähnliches wie eine Singularität zu erreichen, ohne dies zu tun überhaupt eine Intelligenz zu haben (oder nur auf menschlicher Ebene), da man einfach alle brutal erzwingen könnte.

Ist das effizient? Nein, nicht einmal annähernd machbar. Funktioniert es? Technisch ja.

Es wäre eine Art Singularität, da es sich kontinuierlich verbessert, aber seine eigene Intelligenz nicht verbessern müsste.

Natürlich könnten einige Erkenntnisse es ermöglichen, intelligenter zu werden, aber nehmen wir einfach an, dass diese Erkenntnisse nicht auf sich selbst angewendet werden.

Lexyth
quelle