Es gibt mehrere konkurrierende Begriffe eines "spärlichen Graphen". Beispielsweise könnte ein oberflächeneinbettbarer Graph als spärlich angesehen werden. Oder ein Diagramm mit begrenzter Kantendichte. Oder eine Grafik mit hohem Umfang. Ein Diagramm mit großer Ausdehnung. Ein Diagramm mit begrenzter Baumbreite. (Sogar innerhalb des Unterfelds der Zufallsgraphen ist es etwas unklar, was man als spärlich bezeichnen könnte.) Et cetera.
Welcher Begriff des "spärlichen Graphen" hatte den größten Einfluss auf das Design effizienter Graphenalgorithmen und warum? In ähnlicher Weise, was für ein Begriff von "dichtem Graphen" ...? (Anmerkung: Karpinski hat viel an Näherungsergebnissen für ein Standardmodell dichter Graphen gearbeitet.)
Ich habe gerade einen Vortrag von J. Nesetril über ein Programm von ihm (zusammen mit P. Ossona de Mendez) gesehen, um Sparsamkeitsmaße in Graphen innerhalb eines einheitlichen (asymptotischen) Rahmens zu erfassen. Meine Frage - ja, vielleicht ziemlich subjektiv und ich erwarte unterschiedliche Lager - ist motiviert von dem Wunsch, eine facettenreiche Perspektive auf die Verwendung von Sparsamkeit in Algorithmen zu erhalten (und etwaige Lücken in meinem eigenen Verständnis des Themas zu schließen).
Antworten:
Nach meinem Dafürhalten müsste ein dreidimensionaler n × n × n-Gittergraph nach vernünftigen Maßstäben als spärlich angesehen werden, und dies schließt die meisten Kandidatendefinitionen aus, bei denen es um Oberflächeneinbettungen oder Minderjährige geht. (Sublineare Baumbreite wäre jedoch weiterhin möglich.)
Mein derzeitiges Lieblingsmaß für die Sparsamkeit ist die Entartung . Die Entartung eines Graphen ist über alle linearen Reihenfolgen der Scheitelpunkte des Graphen das Minimum des maximalen Abstands in der gerichteten azyklischen Ausrichtung des Graphen, der durch Ausrichten jeder Kante von früheren zu späteren Scheitelpunkten in der Reihenfolge gebildet wird. Entsprechend ist es das Maximum über alle Untergraphen des minimalen Grades im Untergraphen. Zum Beispiel haben ebene Graphen eine Entartung von fünf, weil jeder Untergraph eines ebenen Graphen einen Scheitelpunkt von höchstens fünf Grad hat. Degeneriertheit lässt sich leicht in linearer Zeit berechnen, und die lineare Reihenfolge, die sich aus der Definition ergibt , ist in Algorithmen nützlich .
Die Degeneriertheit liegt innerhalb eines konstanten Faktors für einige andere Standardmaße, einschließlich der Arborizität, der Dicke und des maximalen Durchschnittsgrads eines Subgraphen, aber diese sind meiner Meinung nach schwieriger zu verwenden.
quelle
Es scheint viele "gute" Vorstellungen von Sparsity zu geben, aber es gibt eine gewisse Hierarchie für jene strukturellen Vorstellungen von Sparsity, die einen modelltheoretischen Charakter haben. Ich denke, dass diese einen starken Einfluss auf effiziente Grafikalgorithmen hatten.
In Anuj Dawars Kursnotizen vom November 2010 wird auch die lokal begrenzte Baumbreite erörtert, die mit ausgeschlossenen Minderjährigen nicht zu vergleichen ist. Der begrenzte Grad definiert klar spärliche Graphen, und solche Graphen haben eine begrenzte lokale Baumbreite, sind jedoch nicht durch eine Reihe ausgeschlossener Minderjähriger definierbar.
Die Auswirkung des eingeschränkten Grades ist klar: Es ist oft eine der ersten Einschränkungen, die gezeigt werden, um ein schweres Problem handhabbar zu machen, zum Beispiel der Luks-Algorithmus für den Isomorphismus von Graphen mit eingeschränkten Graden. Die Auswirkung des Ausschlusses eines Minderjährigen ist auch klar, zumindest in Form einer begrenzten Baumbreite (wie Suresh hervorhob).
Der Begriff des lokalen Ausschlusses eines Minderjährigen verallgemeinert sowohl die lokal begrenzte Baumbreite als auch die ausgeschlossenen Minderjährigen und bildet so die "allgemeinste" Klasse in der Hierarchie. Es ist jedoch noch nicht klar, wie diese Eigenschaft in praktischen Algorithmen genutzt werden kann. Selbst der "praktikable" Fall des Ausschlusses eines Minderjährigen hat nicht unbedingt gute praktische Algorithmen; In den modelltheoretischen Algorithmen gibt es viele große Konstanten. Ich hoffe, dass sich herausstellen wird, dass einige dieser Klassen auf lange Sicht praktisch effiziente Algorithmen haben.
Siehe auch meine Antwort Was ist für Diagramme ohne Nebeneffekte einfach? für weitere verwandte Kommentare.
quelle
Ich kann mir keine Grapheneigenschaft vorstellen, die den Entwurf effizienter Algorithmen so stark beeinflusst hat wie die begrenzte Baumbreite und die Bidimensionalität im Allgemeinen.
quelle
Man kann sich einen Graphen als eine Adjazenzmatrix vorstellen - es gibt verschiedene Definitionen für die Matrixsparsität (z. B.% von Null-Einträgen), die sich auf den Graphen selbst zurückführen lassen. Anders als% von Null-Einträgen könnte die Matrixbandbreite bei einer Neuordnung ein guter Proxy für die Graph-Sparsity sein (es sieht so aus, als ob die Bandbreite mit der Entartung zusammenhängt).
quelle