Können wir angesichts des nachgewiesenen Problems des Anhaltens von Turing-Maschinen Grenzen für die Fähigkeit starker künstlicher Intelligenz ableiten?
quelle
Können wir angesichts des nachgewiesenen Problems des Anhaltens von Turing-Maschinen Grenzen für die Fähigkeit starker künstlicher Intelligenz ableiten?
Bedeutet das Stopp-Problem, dass die menschliche Wahrnehmung an Grenzen stößt?
Ja, absolut - dass es Teile von Code gibt, die ein Mensch betrachten könnte und nicht sicher ist, ob er in endlicher Zeit anhält oder nicht. (Natürlich gibt es Codeteile, die ein Mensch betrachten und definitiv "Ja" oder "Nein" sagen kann, aber wir sprechen von denjenigen, die eigentlich ziemlich schwer zu analysieren sind.)
Das Problem des Anhaltens bedeutet, dass es Arten der Code-Analyse gibt, die kein Computer durchführen kann, da dies mathematisch unmöglich ist. Der Bereich der Möglichkeiten ist jedoch immer noch groß genug, um eine starke künstliche Intelligenz zuzulassen (im Sinne eines Codes, der sich selbst gut genug verstehen kann, um sich selbst zu verbessern).
Das Stopp-Problem ist ein Beispiel für ein allgemeines Phänomen, das als Unentscheidbarkeit bekannt ist. Es zeigt, dass es Probleme gibt, die keine Turing-Maschine in endlicher Zeit lösen kann. Betrachten wir die Verallgemeinerung, dass es nicht zu entscheiden ist, ob eine Turing-Maschine eine nicht-triviale Eigenschaft P erfüllt, die als Rice-Theorem bezeichnet wird .
Beachten Sie zunächst, dass das Problem des Anhaltens nur dann auftritt, wenn die Turing-Maschine eine willkürlich lange Eingabe vornimmt. Wenn die Eingabe beschränkt ist, können alle möglichen Fälle aufgelistet werden, und das Problem ist nicht mehr unentscheidbar. Es mag immer noch ineffizient sein, es zu berechnen, aber dann wenden wir uns der Komplexitätstheorie zu, die eine separate Frage sein sollte.
Der Satz von Rice impliziert, dass eine Intelligenz (ein Mensch) nicht in der Lage sein kann, zu bestimmen, ob eine andere Intelligenz (wie ein AGI) eine bestimmte Eigenschaft besitzt, wie zum Beispiel, freundlich zu sein . Dies bedeutet nicht, dass wir keine freundliche AGI entwerfen können, aber es bedeutet, dass wir nicht prüfen können, ob eine beliebige AGI freundlich ist. Während wir also möglicherweise eine KI erstellen können, die garantiert freundlich ist, müssen wir auch sicherstellen, dass die IT keine andere KI erstellen kann, die unfreundlich ist.
quelle