Hintergrund
Einer meiner Mandanten ist eine IT-abhängige Workflow-gesteuerte Anwaltskanzlei mit etwa 50 Sitzplätzen. Sie wurden von einem ihrer Kunden (einem von der FSA regulierten Hypothekengeber) geprüft und haben festgestellt, dass ihr einzelner Standort eine Bedrohung für die Geschäftskontinuität darstellt. Ich habe vorgeschlagen, dass wir ihr Geschäft in zwei Teile aufteilen:
Clientseitig - PCs, Monitore, Stühle, Schreibtische, LAN-Switches sowie Router und Firewall
Serverseitig - Die virtuellen Maschinen, auf denen Active Directory, Exchange, SQL, SharePoint und andere Branchenanwendungen, "Roboter" -Arbeitermaschinen und Remotedesktopdienste ausgeführt werden (insgesamt ca. 14 VMs)
Die Idee ist, dass wir Geräte lagern und Vorkehrungen treffen können, um zumindest eine clientseitige Umgebung mit reduzierter Kapazität an einem alternativen Standort schnell zu reproduzieren, oder dass Benutzer bei Bedarf sogar von zu Hause aus eine Verbindung herstellen können.
Die Serverseite stellt eine größere Herausforderung dar, da sie Dienste enthält, die über ihre IP-Verbindung (derzeit ADSL, bald 100 Mbit / s Glasfaser) veröffentlicht wurden, und etwa 3 TB Daten, ohne Backups. Ich habe vorgeschlagen, dass wir die gesamte serverseitige Umgebung aus ihren derzeit selbst gehosteten Serverräumen vor Ort in eine gehostete Einrichtung verschieben. Ich möchte immer noch das gleiche Maß an Datenschutz - dies muss bis auf die geringe Anzahl veröffentlichter Dienste vom Internet abgeschirmt werden, und sie werden am besten von einer Webserver-VM in einer DMZ aus bedient.
Derzeit gibt es zwei Serverräume, die jeweils einen Knoten eines replizierten SAN und einen Hyper-V-Cluster-Host enthalten. In Verbindung mit redundanten Fibre-Channel- und Ethernet-Verbindungen bedeutet dies, dass das System auch dann weiterläuft, wenn ein ganzer Serverraum verloren geht. Ich möchte, dass die gehostete serverseitige Umgebung ähnlich widerstandsfähig gegenüber dem Verlust einzelner Rechenzentren ist.
Grundsätzlich möchte ich die Sicherheit, Verfügbarkeit und Kontrolle, die ich durch lokales Self-Hosting erhalte, jedoch in der Cloud mit einer geopraphischen Vielfalt von mindestens 30 km. Ich möchte auch nicht wirklich ein Kit kaufen und es selbst einbauen und mir Sorgen um die Lebensdauer und den Austausch der Hardware, Backups usw. machen.
Fragen
Sollte ich versuchen, das replizierende SAN und den Hyper-V-Cluster im Rechenzentrum zu replizieren, oder haben große Hoster und Cloud-Anbieter andere Möglichkeiten, die Verfügbarkeit sicherzustellen?
Es sieht so aus, als hätte Amazon AWS alle erforderlichen Bits (EC2, EBS, S3, VPC, VPN usw.), aber nur ein EU-Rechenzentrum. Welche Verfügbarkeit kann ich erwarten? Beispiel: Wenn sie in ihrem Rechenzentrum in Irland einen größeren Ausfall haben (stellen Sie sich beispielsweise ein Flugzeug vor, das darauf landet), was passiert dann mit den dort gehosteten Diensten? Und was ist mit allgemeinen Zuverlässigkeitsproblemen?
Kann dies überhaupt mit Windows Azure, Rackspace Cloud oder einem anderen Cloud-Dienst erfolgen?
Vielen Dank, dass Sie sich mit meiner Frage befasst haben.
Antworten:
Ich schlage vor, Ihre primären Vorgänge im Inneren zu belassen und Ihre Server und Daten außerhalb als Backup zu duplizieren.
EC2 ist dafür ziemlich genial. Erstellen Sie Maschinenabbilder von jedem der Server, die Sie benötigen, und trennen Sie Ihre Daten von diesen. Wenn Sie Software auf einem internen Computer patchen, planen Sie, den entsprechenden Patch auf Ihrer EC2-Box zu erstellen. Dadurch werden Ihre Kosten für die Sicherungsressource niedrig gehalten, da der Computer die meiste Zeit nicht ausgeführt werden muss. Sie zahlen also nur für den Speicher und nicht für die Computerkosten.
Übertragen Sie Ihre Daten auch über das Netzwerk. Ihr erster Schritt dauert mehr als 3 Tage, aber die Zuwächse sollten viel flüssiger sein.
Indem Sie EC2 als Backup behalten, vermeiden / minimieren Sie Hardwarekosten, vermeiden die Abhängigkeit von einem Remote-Standort und einer Internetverbindung für das Tagesgeschäft und bieten sich die Möglichkeit, Services bei einem Ausfall schnell hochzufahren.
Direkte Fragen und Antworten
Sie haben ihre Methoden, um Zuverlässigkeit zu gewährleisten. Sie können den Service mit einem SLA mit höherer Verfügbarkeit bezahlen. Habe sowieso immer Backups.
Wenn es boomt, boomt es. Wenn Sie sich nur auf sie verlassen, replizieren Sie in andere Rechenzentren. Persönlich mit meinem Vorschlag, sie nur als Backup zu verwenden, würde ich mir darüber keine Sorgen machen. Wenn die EU so boomt, dass Ihr Unternehmen und EC2 EU offline gehen, passiert das Leben. Für ein Unternehmen mit 50 Mitarbeitern würde ich dieses Risiko nicht an mehr als zwei entfernten Standorten (Ihrem Büro und einem EC2-Rechenzentrum) berücksichtigen.
Wahrscheinlich, aber ich habe mich nur mit Amazon-Diensten vertraut gemacht.
quelle
In die Cloud zu gehen bedeutet nicht nur, alle Server zu nehmen und diese Instanzen an einen anderen Ort zu verschieben. Ihre Infrastruktur muss so aufgebaut sein, dass sie in der Cloud funktioniert. Andernfalls sehen Sie keine Ausfallsicherheit in der Nähe der Ebenen, die Sie in Ihrem eigenen Serverraum hatten. Das sind völlig andere Umgebungen.
Lesen Sie mehr über Chaos Monkey von Netflix und auch von Coding Horror .
quelle
Durch die Verwendung eines DR-Standorts mit einem Replikat Ihrer Infrastruktur und einem akzeptablen RPO / RTO kann der DR-Standort, der in einigen Fällen seine Betriebsstufe und Serviceübersicht gewährt hat, besser für den PROD geeignet sein und seine Rechenzentrums- + Infrastruktur vollständig für beide Produkte nutzen. Dr. Szenarien.
Das Skalieren der Active Directory-Site ist möglich
Das gehostete Modell mit Thin Clients und Citrix Server wird empfohlen.
MPLS-Verbindung zum Anbieter und zu mehreren Zonen + dmz sowie Erfüllung der Anforderungen an Datenschutz, Sicherheit und Audits. Validierung des Angebots, um einen sicheren Hafen anzubieten, saas70 (jetzt ssae16), pci.
Abhängig von den Faktoren, der Datenbankarchitektur, der lizenzierten Edition (Standard / Enterprise), die für RPO / RTO erforderlich sind, und mehr Einblick in den Datenfluss.
Aus Sicherheitsgründen sollten erweiterte Änderungskontrolle, Protokollverwaltung, Intrusion Detection ... typische Antwortzeiten zwischen Rechenzentren im Abstand von 6 Stunden <70 ms betragen
Fragen
Wenn die Replikation auf Blockebene nicht über Einrichtungen empfohlen wird, kann dies teuer werden. Es gibt viele andere Optionen auf dem Anwendungs- / Datenbank-Software-Stack, um dies zu handhaben.
Wenn Sie auf einem Host sind und es nicht funktioniert, sind Ihre Apps nicht verfügbar. Es gibt andere Unternehmen, die dies ebenfalls anbieten können. Einige arbeiten gut mit Amazon zusammen, siehe Datapipe.
Stratosphäre ist ein interessanter Ansatz, den Sie vielleicht untersuchen möchten. Pingen Sie mich an, wenn Sie darüber diskutieren möchten
quelle
Es tut mir leid, dass die Party etwas spät ist, aber Jeff Ferland hat Recht mit dem Boom.
Ihre Frage zu einer Flugzeuglandung im Rechenzentrum von Irland könnte genauso gut dahingehend übersetzt werden, was passiert, wenn ein Flugzeug im Büro oder im Serverraum Ihres Kunden landet. Beides sind katastrophale Situationen, auf die niemand Einfluss hat und die zu Datenverlust für Ihren Kunden führen.
Wenn Sie sich Sorgen machen, dass Ihrem Kunden so etwas passiert, sollten Sie bereits Maßnahmen ergreifen, um die lokalen Server Ihrer Kunden außerhalb des Unternehmens zu betreiben.
Wenn Sie sich Sorgen um den Schutz Ihres Unternehmens machen, sollte Ihre Kundenvereinbarung eine Klausel enthalten, die Sie davor schützt, für Ereignisse außerhalb Ihrer Kontrolle und möglicherweise für Dinge, die unter Ihrer Kontrolle stehen, verantwortlich gemacht zu werden.
quelle