Was sind die Hardwareanforderungen für einen Cloud-gehosteten PostGIS & GeoServer?

16

Ich habe mit einer lokalen Installation von PostGIS & GeoServer gespielt. Ich möchte meine Arbeit jetzt online stellen, um sie mit mehreren Mitarbeitern zu teilen.

Der Proof der Concept Map besteht aus einfachen WMS- und WFS-Diensten, die über OpenLayers und GeoExt abgebildet werden. Es wird auf einer Karte von ca. 3000 Verwaltungseinheiten basieren. Zunächst müssen nur mehrere Personen bedient werden. Von da an werden wir daran arbeiten, die endgültige Ansicht und Funktionalität der Anwendung zu verbessern.

Es wurden mehrere Vorschläge unter Antworten auf diese Frage gemacht . Zum Beispiel Nicklas läuft seine Website auf 512 MB Linode (glaube ich ...).

Ich dachte darüber nach, Ubuntu Server auf Cloud-VPS zu verwenden, das höchstwahrscheinlich auf Rackspace gehostet wird .

Meine Frage: Was wäre die minimale Servergröße, die ich verwenden müsste, um mit diesen Daten online zu spielen? Es gibt nur wenige davon . Sobald wir uns entschließen, den Service für den öffentlichen Rackspace zu öffnen, verspricht dies eine nahtlose Skalierung des Service. Daher möchte ich gerne wissen, mit welchem ​​Minimum an RAM ich anfangen muss.


Update 1 : Ähnliche Diskussion im GeoServer Forum .

Update 2 : Nützliche Tutorials zum Einrichten des Stacks auf einer AWS Micro-Instanz unter Ubuntu und CentOS .

radek
quelle
1
Wie viele Benutzer werden dies zu einem bestimmten Zeitpunkt voraussichtlich verwenden? Ubuntu min RAM ist 1 GB.
Mapperz
für die Testphase - definitiv weniger als 5 gelegentliche Benutzer
radek
1
128 mb, Ubuntu: help.ubuntu.com/community/Installation/…
Nicklas Avén
1
Aber ich schätze, Geoserver braucht vielleicht etwas RAM. Ich verwende Mapserver in meiner Anwendung.
Nicklas Avén
2
Gibt es eine Art Standard-Geschwindigkeitstest, mit dem die Leistung verschiedener Setups veranschaulicht werden kann? Ich habe Postgis / Mapserver auf Shared Server bei WebFaction mit CentOS ausgeführt, und auch auf einem Ubuntu-Desktop. Ich bin mir nicht ganz sicher, wie ich ihre Leistung am besten charakterisieren soll ...
14.

Antworten:

9

Es hängt wirklich von der Größe der Datensätze ab, über die Sie sprechen, und von der Komplexität Ihrer Abfragen. Ich arbeite zum Beispiel ziemlich glücklich auf einem GoGrid-Server / PostGIS / Windows 2008 (32-Bit) mit IIS, einer Mischung aus PHP / .NET-eigenen Webservices mit 2GIG-RAM / Dual Core. Die von mir abgefragte räumliche Haupttabelle enthält ungefähr 6 Millionen Datensätze, von denen ich hauptsächlich an kalifornische Daten denke. Ich führe ziemlich komplexe räumliche Abfragen durch, bei denen Schnitte / Transformationen fliegend durchgeführt werden und bei denen Entfernungsprüfungen mit Geometrien durchgeführt werden, von denen einige ziemlich groß sind. Sie gehen von einzelnen Punkten zu großen Polygonen mit 8000-10000 Punkten.

Angesichts der Tatsache, dass Windows in Bezug auf den Arbeitsspeicher mit all dem zusätzlichen Müll ein Riesenschwein ist. Ich stelle mir vor, du kannst es mit 1G Ubuntu ziemlich gut machen (und möglicherweise anständig mit 512 MB). Ich bin mir nicht sicher, wie schwer GeoServer ist, aber ich kann mir vorstellen, dass es nicht viel schlimmer sein kann als das, was ich laufe.

Ich habe vergessen zu sagen. Sie sollten mit PostGIS 1.5 / Geos 3.2 laufen. Die Leistung ist viel besser als bei älteren Versionen, insbesondere bei Nachbaranfragen mit ST_DWithin usw. (danke an Nicklas :))

LR1234567
quelle
Danke :-) Was für ein kryptischer Benutzername. Unter Deckung? :-)
Nicklas Avén
3

Thinkgeo scheint einige Informationen zu haben.

aws.amazon.com

Es scheint auch ein AMI fertig gebaut zu sein.

Geonetzwerk

Standardinstanzen
Kleine Instanz (Standard) 1,7 GB Speicher, 1 EC2-Recheneinheit (1 virtueller Kern mit 1 EC2-Recheneinheit), 160 GB lokaler Instanzspeicher, 32-Bit-Plattform

Große Instanz 7,5 GB Speicher, 4 EC2-Recheneinheiten (2 virtuelle Kerne mit jeweils 2 EC2-Recheneinheiten), 850 GB lokaler Instanzspeicher, 64-Bit-Plattform

Extra große Instanz 15 GB Arbeitsspeicher, 8 EC2-Recheneinheiten (4 virtuelle Kerne mit jeweils 2 EC2-Recheneinheiten), 1690 GB lokaler Instanzspeicher, 64-Bit-Plattform

Brad Nesom
quelle
Tolle Info, hatte sogar ein Whitepaper über ein Projekt für den zweiten Link. Danke dafür Brad.
DEWright
Wow, @DEWright - das ist ein paar Tage her, seit ich es gepostet habe. Ich benutze jetzt die große Instanz auf Amazon East. Ich habe gerade bemerkt, dass eine neue Region gestartet ist. Ich kann bald eine Instanz darauf aufbauen.
Brad Nesom
Ich habe es gerade aktualisiert. schade die kosten sind so hoch; würde gerne etwas Forschung und Entwicklung in der Cloud betreiben.
DEWright
Ich gab ungefähr 150 US-Dollar in einer Woche für das Hoch- und Runterdrehen und das Laden von Daten aus. Ich denke, dass es sich lohnt, solche Forschungs- und Entwicklungskosten zu tragen. Wenn ich zu einem Punkt komme, an dem ich keine Zeit dafür aufwenden kann, stoppen Sie einfach die Instanz und alle Kosten stoppen.
Brad Nesom