Was ist falsch an der Vorstellung, dass die KI zur Allwissenheit fähig sein wird?

10

Im Kontext der künstlichen Intelligenz bezieht sich die Singularität auf das Aufkommen einer künstlichen allgemeinen Intelligenz, die zur rekursiven Selbstverbesserung fähig ist, was zur raschen Entstehung der künstlichen Superintelligenz (ASI) führt, deren Grenzen kurz nach Erreichen der technologischen Singularität unbekannt sind . Daher könnten diese Superintelligenzen Probleme lösen, die wir möglicherweise nicht lösen können.

Laut einer Umfrage in Future Fortschritte in der künstlichen Intelligenz: Eine Umfrage der Expertenmeinung (2014)

Die mittlere Schätzung der Befragten bezog sich auf eine von zwei Chancen, dass zwischen 2040 und 2050 Maschinenintelligenz auf hohem Niveau entwickelt wird

das ist nicht sehr weit weg.

Was ist falsch an der Idee, dass die KI zur Allwissenheit fähig sein wird, da sie uns durch die Lösung vieler Probleme zugute kommen könnte?

Aaron
quelle

Antworten:

8

Ich mag Ihre Sichtweise sehr, und ohne auf die Details einzugehen, wie eine "Singularität" bewirkt werden kann, die in zahlreichen anderen Fragen behandelt wird, oder wie Bewusstsein und "Allwissenheit" ins Spiel kommen, weil Bewusstsein und Allwissenheit keine Anforderungen sind , werde ich es stattdessen tun leiten Sie zu zwei Schlüsselphilosophen:

Wenn die Leute verrückt werden und sich auf den " Skynet " -Mythos konzentrieren, unter dem sich Maschinen erheben, um uns zu zerstören, muss ich mich fragen, ob sie einfach nicht so klug wie Nash oder so tief wie Dick sind, was ihre mangelnde Betonung erklären könnte was man das " Electric Sheep " -Paradigma nennen kann.

DukeZhou
quelle
1
Ich stimme Ihnen voll und ganz zu. Manchmal frage ich, was uns dazu bringt, neue Technologien zu entwickeln. Wollen wir absolute Kräfte oder lösen wir tatsächlich unsere wirklichen Probleme? Deshalb sehe ich lieber durch das Prisma der Liebe. Einige mögen es als Klischee betrachten, aber so glaube ich.
Karl Zillner
@KarlZillner In Stross ' Accellerando führt er die mythologische Front fort und führt ein Konzept von "Economics 2.0 *" ein, das als ein System definiert ist, in dem selbst erweiterte Menschen nicht mehr mit reinen Algorithmen konkurrieren können und das völlig sinnlos erscheint. Er scheint zwei Hauptpfade vorzuschlagen - parteiübergreifende, kooperative KI vs. hyperparteiliche KI (die sich als weniger intelligente Cousins ​​herausstellen, wenn auch mit hochoptimierten Akquisitionsfunktionen auf niedriger Ebene, die es ihnen ermöglichen, die Infrastruktur des Erstellers zu überwältigen und zu kooptieren. )
DukeZhou
0

Die Frage ist gut und in den Köpfen vieler Menschen. Es gibt einige Missverständnisse in der Denkrichtung, die berücksichtigt werden müssen.

  • Die Vorherrschaft anderer intelligenter Wesen als Menschen bedroht die Zivilisation - Ist die Vorstellung dieser Bedrohung logisch? Ist das eine rationale Schlussfolgerung, wenn die menschliche Intelligenz heute das bedrohlichste biologische Phänomen in der Biosphäre ist? Die Intelligenz von Insekten kann nachhaltiger sein. Die Zivilisationen von Ameisen und Termiten sind sicherlich kollaborativer. Weltkriege und Völkermord sind eines der Hauptmerkmale der Menschheitsgeschichte.
  • Künstliche Intelligenz wird intelligenter als Menschen - Künstliche Intelligenz ist in mancher Hinsicht bereits intelligenter als Menschen, weshalb wir Taschenrechner, automatisiertes Umschalten von Kommunikationssignalen anstelle von Bedienern und automatisierte Postsortierer verwenden. Auf andere Weise muss die KI astronomische Entfernungen überwinden, um sich der menschlichen Intelligenz anzunähern. Wir haben nichts, was auch nur einen Hinweis darauf zeigt, dass wir in Zukunft die menschlichen Fähigkeiten des Denkens, des Erfindungsreichtums oder des Mitgefühls simulieren oder duplizieren können.
  • Die Singularität wird für die 2040er Jahre vorhergesagt. Diese Vorhersagen enthalten über ein Dutzend unrealistische Annahmen. Wenn Sie eines der Argumente hinter sich kritisch betrachten, werden Sie feine Löcher finden, durch die Sie eine 757 mit verbundenen Augen fliegen könnten.
  • Exponentielles Wachstum des Wissens - Es gibt ein exponentielles Wachstum der Informationen, aber der Anteil dieser Informationen, die zu Recht von Experten begutachtet werden, nimmt mit zunehmenden Fehlinformationen, wilden Vermutungen und falschen Nachrichten ab. Ich glaube, dass die Informationsmenge in der Welt durch log (n) angenähert werden kann, wobei n die Bevölkerung ist. Wenn ich mit dieser Beziehung auf dem richtigen Weg bin, ist der Informationswert des durchschnittlichen Individuums log (n) / n, der mit zunehmender Bevölkerung abnimmt.
  • KI wird zur Allwissenheit fähig sein - Allwissenheit ist mehr als die Beantwortung von Fragen. Allwissenheit würde erfordern, dass die Antwort 100% zuverlässig und 100% genau ist, was möglicherweise mehr Silizium erfordert, als im Universum vorhanden ist. Lesen Sie Gleicks Chaos, wenn Sie verstehen möchten, warum. Man könnte auch argumentieren, dass ein allwissendes Wesen keine Fragen auf Befehl beantworten würde.

Wenn Sie eine Welt wollen, die besser ist als eine, die von der menschlichen Intelligenz kontrolliert wird, dann besteht eine Richtung darin, die Entwicklung einer neuen Spezies mit einem fortgeschritteneren Konzept einer friedlichen Zivilisation zu suchen, die uns zähmen und domestizieren kann, wie wir es mit Hunden und Hunden getan haben Katzen.

Der einfachere Weg ist nur für uns alle zu sterben. Die Biosphäre war möglicherweise zivilisierter, bevor wir ankamen und anfingen, alles und einander zu töten. Aber das ist nicht meine Hoffnung.

Meine Empfehlung ist, dass wir NI (Nicht-Intelligenz) studieren und herausfinden, wie wir das Dumme von menschlichem Verhalten und geopolitischer Interaktion befreien können. Das würde die Welt weit mehr verbessern als ablenkende und im Wesentlichen irrelevante Geräte und Apps für maschinelles Lernen.

FauChristian
quelle
0

Hier sind einige Probleme, die mein Affenverstand hatte.

1.Smart! = Allwissend

Die KI-Explosion zur Selbstverbesserung macht es immer schlauer. Klüger zu sein bedeutet nicht, mehr Fakten zu kennen. Ich nehme an, das ist ein ziemlich wählerisches Argument, aber ich denke, es lohnt sich darüber nachzudenken.

Ein sehr kluger Arzt, der Ihre Vorgeschichte nicht kennt, trifft möglicherweise immer noch eine schlechtere Wahl als ein weniger intelligenter mit besseren Daten.

2. Ist alles für Menschen? Ist es für alle Menschen?

ASI, die ein höheres Niveau erreicht, könnte nicht an unserem Wohlbefinden interessiert sein.

Ein kontrollierter ASI könnte immer noch nur zum Nutzen der Wenigen funktionieren, wenn diese Wenigen falsche Ziele beschließen, könnten wir rückwärts gehen.

3 Harte ASI

Ein wissenschaftlicher Geist, der nicht unbedingt voller Sympathie oder Empathie ist.

4. Klug sein und nicht schlau sein

Große Köpfe machen immer noch Fehler: * bei der Festlegung ihrer Ziele und * bei der Umsetzung des Plans zur Erreichung dieser Ziele.

Geat Intellekt garantiert keinen Mangel an Kurzsichtigkeit oder an blinden Flecken.

5. Grenzen

Wenn es Existenzgrenzen gibt (Grenzen der Lichtgeschwindigkeit), wird auch die KI an diese gebunden sein. Dies kann bedeuten, dass es Dinge gibt, die selbst ASI nicht "bekommt". Da unser Geist aufgrund seiner Struktur möglicherweise Grenzen hat, kann auch die nächste KI Grenzen haben - und selbst wenn sie sich verbessert, kann sie Grenzen erreichen, für die sie keine Lösungen finden kann, weil sie "zu dumm" ist.

6. Wir werden es nicht bekommen

Das Verständnis von ASI für bestimmte Aspekte der Welt ist für die meisten Menschen möglicherweise nicht kommunikativ. Wir werden es einfach nicht verstehen (selbst wenn wir in der Lage sind, alles zu verstehen, heißt das nicht, dass wir es verstehen werden).

7. Wie benutzt man es?

Wir können uns selbst zerstören und die KI mit der Technologie, die sie uns beim Aufbau hilft. Es müssen keine Bomben sein. Es kann Geoengineering sein oder Drogen wundern.

Dies ist besonders intensiv, wenn der ASI bereits leistungsfähig ist, aber nicht stark genug, um negative Konsequenzen vorherzusehen (oder wir ignorieren ihn einfach).

Tymtam
quelle