Ich arbeite derzeit daran, die Verwendung der Cheeger-Bindung und der Cheeger-Ungleichung sowie deren Verwendung für die spektrale Aufteilung, Leitfähigkeit, Expansion usw. zu verstehen , aber ich habe immer noch Schwierigkeiten, eine Intuition bezüglich des zweiten Eigenwerts der Adjazenzmatrix zu entwickeln.
Normalerweise sind in der Graphentheorie die meisten Konzepte, auf die wir stoßen, recht einfach zu verstehen, aber in diesem Fall kann ich nicht einmal herausfinden, welche Art von Graphen einen zweiten Eigenwert haben würde, der sehr niedrig oder sehr hoch ist.
Ich habe ähnliche Fragen gelesen, die hier und da im SE-Netzwerk gestellt wurden, aber sie beziehen sich normalerweise auf Eigenwerte in verschiedenen Bereichen ( multivariate Analyse , euklidische Distanzmatrizen , Korrelationsmatrizen ...).
Aber nichts über spektrale Partitionierung und Graphentheorie.
Kann jemand versuchen, seine Intuition / Erfahrung dieses zweiten Eigenwerts bei Graphen und Adjazenzmatrizen zu teilen?
quelle
Antworten:
Der zweite (in der Größe) Eigenwert steuert die Konvergenzrate des Zufallslaufs in der Grafik. Dies wird in vielen Vorlesungsskripten erklärt, zum Beispiel in Vorlesungsskripten von Luca Trevisan . Grob gesagt kann der L2-Abstand zur Gleichmäßigkeit nach Schritten durch .t λt2
Ein weiterer Ort, an dem der zweite Eigenwert auftaucht, ist das Problem der gepflanzten Cliquen . Der Ausgangspunkt ist die Beobachtung, dass ein zufälliger -Diagramm eine Clique der Größe , der gierige Algorithmus jedoch nur eine Clique der Größe findet und kein besserer effizienter Algorithmus bekannt ist. (Der Greedy-Algorithmus wählt nur einen zufälligen Knoten aus, wirft alle Nicht-Nachbarn weg und wiederholt dies.)G(n,1/2) 2log2n log2n
Dies legt nahe , eine große Clique auf 1/2) zu pflanzen . Die Frage ist: Wie groß sollte die Clique sein, damit wir sie effizient finden können. Wenn wir eine Clique der Größe pflanzen , können wir die Eckpunkte der Clique nur anhand ihres Grades identifizieren. Diese Methode funktioniert jedoch nur für Cliquen der Größe . Wir können dies mithilfe von Spektraltechniken verbessern: Wenn wir eine Clique der Größe pflanzen , codiert der zweite Eigenvektor die Clique, wie Alon, Krivelevich und Sudakov in einem klassischen Artikel gezeigt haben.G(n,1/2) Cnlogn−−−−−√ Ω(nlogn−−−−−√) Cn−−√
Im Allgemeinen sind die ersten Eigenvektoren nützlich, um den Graphen in eine kleine Anzahl von Clustern zu unterteilen. Siehe zum Beispiel Kapitel 3 der Vorlesungsunterlagen von Luca Trevisan , in dem Cheeger-Ungleichungen höherer Ordnung beschrieben werden.
quelle
(Haftungsausschluss: Bei dieser Antwort geht es um Eigenwerte von Graphen im Allgemeinen, nicht um den zweiten Eigenwert im Besonderen. Ich hoffe, dass dies dennoch hilfreich ist.)
Eine interessante Art, über die Eigenwerte eines Graphen nachzudenken besteht darin, den Vektorraum mitund Identifizieren jedes Vektors mit einer Funktion (dh einer Scheitelpunktmarkierung). Ein Eigenvektor der Adjazenzmatrix ist also ein Element von so dass es (dh einen Eigenwert) mit , gibt. ist die Adjazenzmatrix von . Es ist zu beachten, dass der der Karte zugeordnete Vektor ist, der jeden Scheitelpunkt an sendet.G=(V,E) Rn n=|V| f:V→R f∈Rn λ∈R Af=λf A G Af v∈V ∑u∈N(v)f(u) , ist die Menge von Nachbarn (dh Eckpunkte neben) . Daher entspricht in dieser Einstellung die Eigenvektoreigenschaft von der Eigenschaft, dass das Summieren über die Funktionswerte (unter ) der Nachbarn eines Scheitelpunkts das gleiche Ergebnis ergibt wie das Multiplizieren des Funktionswerts des Scheitelpunkts mit der Konstanten .N(v) u f f λf λ
quelle
Ich denke, für die meisten Dinge ist es produktiver, den Laplace-Wert des Graphen , der eng mit der Adjazenzmatrix verwandt ist. Hier können Sie den zweiten Eigenwert mit einer "local vs global" -Eigenschaft des Graphen in Beziehung setzen.G
Der Einfachheit halber nehmen wir an , dass ist -regelmäßige. Dann wird die normierte Laplace von ist , wobei ist die Identität, und ist die Adjazenzmatrix. Das Schöne am Laplace ist, dass wir diesen sehr schönen Ausdruck haben, wenn wir Vektoren als Funktionen wie @dkaeae schreiben und für das übliche innere Produkt verwenden für die durch gegebene quadratische Form :G d G L=I−1dA I n×n A f:V→R ⟨⋅,⋅⟩ L ⟨f,Lf⟩=1d∑(u,v)∈E(f(u)−f(v))2.
Der größte Eigenwert von ist und entspricht dem kleinsten Eigenwert von , der ; Der zweitgrößte Eigenwert von entspricht dem zweitkleinsten Eigenwert von , der . Nach dem Min-Max-Prinzip haben wirA d L 0 λ2 A L 1−λ2d
Beachten Sie, dass sich nicht ändert, wenn wir für jeden Scheitelpunkt um dieselbe Konstante verschieben. Entsprechend können Sie für jedes die "zentrierte" Funktion durch und schreibe⟨f,Lf⟩ f f:V→R f0 f0(u)=f(u)−1n∑v∈Vf(v)
Nun zeigt ein wenig Berechnung, dass und Ersetzen von oben und Teilen von Zähler und Nenner durch haben wir⟨f0,f0⟩=1n∑{u,v}∈(V2)(f(u)−f(v))2 n2
Dies bedeutet, dass, wenn wir jeden Scheitelpunkt von auf der realen Linie am Punkt , der durchschnittliche Abstand zwischen zwei unabhängigen zufälligen Scheitelpunkten im Graphen (dem Nenner) höchstens beträgt mal der durchschnittliche Abstand zwischen den Endpunkten einer zufälligen Kante im Diagramm (dem Zähler). In diesem Sinne bedeutet eine große spektrale Lücke, dass das, was über eine zufällige Kante von geschieht (lokales Verhalten), ein guter Prädiktor für das ist, was über ein zufälliges unkorreliertes Paar von Eckpunkten geschieht (globales Verhalten).u G f(u) dd−λ2 G
quelle