Es scheint mir, dass die Norm des Fehlervektors über den gesamten Graphen hinweg monoton abnehmen muss, sonst können wir nicht garantieren, dass der PageRank jemals konvergiert.
Gilt das jedoch auch für jeden Scheitelpunkt? Dh, von Iteration t zu Iteration t + 1, nimmt der quadratische Fehler eines Scheitelpunkts garantiert immer ab, wenn er sich seinem PageRank-Wert nähert? Oder ist es möglich, dass der Vertex-Quadrat-Fehler jemals zunimmt?
Dies scheint mir auch eine breitere Beziehung zu Machtiterationen im Allgemeinen zu haben? Eine Erklärung oder ein Beweis mit der Antwort wäre willkommen.