Inspiriert von dieser Frage , was sind die Hauptprobleme und bestehenden Lösungen, die im Bereich (theoretischer) verteilter Systeme verbessert werden müssen.
So etwas wie Mitgliedschaftsprotokolle, Datenkonsistenz?
Inspiriert von dieser Frage , was sind die Hauptprobleme und bestehenden Lösungen, die im Bereich (theoretischer) verteilter Systeme verbessert werden müssen.
So etwas wie Mitgliedschaftsprotokolle, Datenkonsistenz?
Siehe zum Beispiel Acht offene Probleme beim verteilten Rechnen .
Die verteilte Zeitkomplexität zahlreicher Graphprobleme ist noch offen.
Im Allgemeinen ist der Bereich der Algorithmen für verteilte Graphen ein Bereich, in dem (zumindest asymptotisch) übereinstimmende Ober- und Untergrenzen für die Komplexität der verteilten Zeit von Graphenproblemen zu erwarten sind . Beispielsweise sind für viele Optimierungsprobleme enge Grenzen bekannt . Es gibt jedoch viele klassische Symmetrieprobleme, die immer noch wenig verstanden werden.
Oben habe ich mich auf Fragen konzentriert, die spezifisch für verteiltes Computing sind. Es gibt auch offene Fragen in verteilten Graphenalgorithmen, die keine trivialen Verbindungen zu offenen Problemen in der theoretischen Informatik im Allgemeinen haben. Beispielsweise sind nicht konstante Untergrenzen für das überlastete Cliquenmodell eine große offene Frage beim verteilten Rechnen. Es wurde kürzlich entdeckt, dass solche Untergrenzen auch neue Untergrenzen für ACC implizieren würden.
quelle
Offene Probleme bei "Verteilten Algorithmen für Minimum Spanning Trees (MST)": (aufgeführt in [1])
In Bezug auf Zeit Komplexität,
In Bezug auf die Komplexität der Nachrichten
Zum synchronen Modell:
[1] Verteilte Algorithmen für Minimum Spanning Trees von Sergio Rajsbaum in "Encyclopedia of Algorithms", 2008.
[2] Verteilte MST für Diagramme mit konstantem Durchmesser von Lotker et al. Distrib. Comput., 2006.
[4] Ein Algorithmus für die schnelle verteilte Approximation von Minimum Spanning Trees von Khan et al. DISC 2006.
quelle
siehe auch (in jüngerer Zeit) eine Diashow "Ungelöste Probleme der Informatik in Distributed Computing" von Notre Dame-Forscher Douglas Thain , der ihr kooperatives Computerlabor leitet. Es hat eher eine angewandte Neigung, aber die aufgeführten Schlüsselfragen führen unweigerlich zu theoretischen Bereichen.
Das Kiloscale-Problem: Jeder Workflow mit ausreichender Parallelität sollte beim ersten Mal und jedes Mal ohne Sysadmin-Hilfe ordnungsgemäß auf 1K-Kernen ausgeführt werden können.
Das Problem des Anhaltens: Wenn ein Workflow auf tausend Knoten ausgeführt wird, beenden Sie ihn und bereinigen Sie den gesamten zugehörigen Status mit vollständiger Sicherheit.
Das Abhängigkeitsproblem:
(1) Ermitteln Sie in einem gegebenen Programm alles, was für die Ausführung auf einem anderen Computer erforderlich ist.
(2) Bestimmen Sie bei einem gegebenen Prozess, welche (verteilten) Ressourcen tatsächlich verwendet werden.
(3) Erweitern Sie 1 und 2 auf einen gesamten Workflow.
Das Problem der richtigen Größe: Wählen Sie bei einer (strukturierten) Anwendung und einem bestimmten Cluster, einer bestimmten Cloud oder einem bestimmten Grid eine Ressourcenzuordnung, die eine gute Leistung zu akzeptablen Kosten erzielt.
Die Fehlerbehebung Problem: Wenn ein Fehler in der Mitte eines 100-Layer-Software-Stacks auftritt, wie und wann melden / wiederholen / ignorieren / unterdrücken Sie den Fehler?
Das Designproblem: Wie sollten Anwendungen so gestaltet werden, dass sie sich gut für verteiltes Computing eignen?
quelle