Steve Omohudro hat einen Artikel mit dem Titel " Basic AI Drives" geschrieben , in dem erläutert wird , warum wir von einer KI mit engen Zielen erwarten, dass sie einige grundlegende, allgemeine Konzepte findet, die für ihre engen Ziele instrumentell nützlich sind.
Zum Beispiel würde eine KI, die darauf ausgelegt ist, die Aktienmarktrenditen zu maximieren, deren Design jedoch keine Aussage über die Wichtigkeit des weiteren Überlebens enthält, erkennen, dass ihr kontinuierliches Überleben eine Schlüsselkomponente für die Maximierung der Börsenrenditen ist, und daher Maßnahmen ergreifen, um sich selbst betriebsbereit zu halten.
Im Allgemeinen sollten wir skeptisch ‚Vermenschlichung‘ AI und anderen Code, aber es scheint , wie es gibt Gründe , diese darüber hinaus zu erwarten , „na ja, die Menschen verhalten sich so, so ist es , wie alle Intelligenz verhält sein muss.“