In Kapitel 26 des Buches Künstliche Intelligenz: Ein moderner Ansatz (3. Auflage) wird im Lehrbuch die "technologische Singularität" erörtert. Es zitiert IJ Good, der 1965 schrieb:
Lassen Sie eine ultra-intelligente Maschine als eine Maschine definiert werden, die alle intellektuellen Aktivitäten eines jeden Menschen, wie klug er auch sein mag, bei weitem übertreffen kann. Da das Design von Maschinen eine dieser intellektuellen Aktivitäten ist, könnte eine hochintelligente Maschine noch bessere Maschinen entwerfen. es würde dann zweifellos eine "Intelligenzexplosion" geben, und die Intelligenz des Menschen würde weit zurückgelassen werden. Somit ist die erste hochintelligente Maschine die letzte Erfindung, die der Mensch jemals machen muss, vorausgesetzt, die Maschine ist fügsam genug, um uns zu sagen, wie wir sie unter Kontrolle halten können.
Später im Lehrbuch haben Sie folgende Frage:
26.7 - IJ Good behauptet, dass Intelligenz die wichtigste Qualität ist und dass der Bau hochintelligenter Maschinen alles verändern wird. Ein empfindungsfähiger Gepard kontert, dass "Geschwindigkeit wichtiger ist; wenn wir ultraschnelle Maschinen bauen könnten, würde das alles ändern", und ein empfindungsfähiger Elefant behauptet: "Sie liegen beide falsch; wir brauchen ultrastarke Maschinen." Was halten Sie von diesen? Argumente?
Es scheint, dass die Lehrbuchfrage ein implizites Argument gegen IJ Good ist. Gut kann sein, Intelligenz als wertvoll zu behandeln, einfach weil die Stärken des Menschen in diesem Merkmal liegen, das "Intelligenz" genannt wird. Aber andere Eigenschaften könnten stattdessen gleich bewertet werden (Geschwindigkeit oder Stärke) und Lebewesen könnten wild darüber spekulieren, dass ihre bevorzugten Eigenschaften von irgendeiner Maschine "maximiert" werden.
Ich frage mich daher, ob eine Singularität auftreten könnte, wenn wir Maschinen gebaut hätten, die nicht die Intelligenz maximieren, sondern stattdessen ein anderes Merkmal maximieren (eine Maschine, die immer stärker wird, oder eine Maschine, die immer schneller wird). Diese Maschinentypen können ebenso transformativ sein - ultraschnelle Maschinen können Probleme aufgrund von "Brute Force" schnell lösen, und ultrastarke Maschinen können ihre Rohleistung für eine Vielzahl von physischen Aufgaben nutzen. Vielleicht kann eine Ultra-X-Maschine keine andere Ultra-X-Maschine bauen (wie IJ Good das Design von Maschinen als intellektuelle Aktivität betrachtete), aber eine sich ständig selbst verbessernde Maschine würde ihre Schöpfer immer noch weit zurücklassen und ihre Schöpfer dazu zwingen davon abhängig.
Sind technologische Singularitäten auf Ultra-Intelligenzen beschränkt? Oder werden technologische Singularitäten durch Maschinen verursacht, die keine "starke KI" sind, aber dennoch "Ultra" -Optimierer?
quelle