Überspringen Sie eine Rack-Einheit zwischen Servern?

70

Es scheint, als gäbe es viele Meinungsverschiedenheiten bei der Installation von Rackmount-Servern. Es gab Diskussionen über Kabelarme und anderes Rack-Zubehör, aber ich bin neugierig:

Lassen Sie bei der Installation eine leere Rack-Einheit zwischen Ihren Servern? Warum oder warum nicht? Haben Sie empirische Belege für Ihre Ideen? Kennt jemand eine Studie, die eindeutig beweist, ob man besser ist oder nicht?

Matt Simmons
quelle

Antworten:

81

Wenn Ihre Server die Durchlaufkühlung von vorne nach hinten verwenden, wie dies bei den meisten Rack-Servern der Fall ist, können Lücken die Kühlung beeinträchtigen. Sie möchten, dass die kalte Luft nur über den Server selbst zum heißen Gang gelangt. Wenn Sie Lücken lassen müssen (aus Gründen der Stromversorgung, des Bodengewichts usw.), sollten Sie Abdeckungen verwenden, damit keine Luft zwischen den Servern strömen kann.

jj33
quelle
6
Ja, wenn Sie eine Lücke lassen, müssen Sie diese mit einem Panel füllen, um dies zu verhindern.
Thomas
2
= 1. Server und Racks für die Rack-Montage sind für den Luftstrom ausgelegt, wobei alle Bedienfelder und Blenden eingeschaltet und alle U gefüllt sind. Ähnlich wie der Luftstrom in einem PC ist er darauf ausgelegt, alle Abdeckungen zu tragen. Das Design zu umgehen, indem Lücken gelassen und / oder Paneele und Abdeckungen entfernt werden, kann eher schaden als nützen.
Joeqwerty
23

Ich habe nie Rack-Einheiten zwischen Rack-Geräten in einem Schrank übersprungen. Wenn mich ein Hersteller anweisen würde, zwischen Geräten zu wechseln, würde ich das tun, aber ich habe noch nie eine solche Empfehlung gesehen.

Ich würde erwarten, dass jedes Gerät, das für die Rack-Montage entwickelt wurde, seine Wärme entweder über die Vorder- oder Rückseite abgibt. Etwas Wärme wird durch die Schienen und die Ober- und Unterseite des Gehäuses geleitet, aber ich würde erwarten, dass diese im Vergleich zu der Strahlung von vorne und hinten sehr gering ist.

Evan Anderson
quelle
6
Wenn Sie Rack-Einheiten überspringen, müssen Sie Abdeckungen zwischen den einzelnen Servern verwenden, da sich sonst Luft zwischen Ihren hohen und kalten Gängen mischt.
Doug Luxem,
22

In unserem Rechenzentrum lassen wir keine Lücken. Wir haben kühle Luft vom Boden und Lücken verursachen Luftströmungsprobleme. Wenn wir aus irgendeinem Grund eine Lücke haben, bedecken wir sie mit einer leeren Platte. Das Hinzufügen von leeren Tellern machte die Oberseiten unserer kalten Gänge sofort kälter und unserer heißen Gänge heißer.

Ich glaube, ich habe keine Daten oder Grafiken mehr, aber der Unterschied war sehr deutlich, als wir anfingen, Änderungen vorzunehmen. Die Server oben auf den Racks haben die Überhitzung gestoppt. Wir hörten auf, Strom zu kochen (was wir mit einer Rate von ungefähr 1 / Woche taten). Ich weiß, dass die Änderungen gestartet wurden, nachdem unser Rechenzentrumsmanager von einer Sun Green-Rechenzentrumsausstellung zurückgekehrt war, wo er an einigen Seminaren über Kühlung und dergleichen teilgenommen hat. Zuvor verwendeten wir Lücken und teilweise gefüllte Gestelle und perforierte Fliesen im Boden vor und hinter den Gestellen.

Selbst mit den Führungskräften hat es besser geklappt, Lücken zu schließen. Alle internen Servertemperaturen im gesamten Raum liegen nun innerhalb der Spezifikationen. Dies war nicht der Fall, bevor wir unser Kabelmanagement standardisiert und die Lücken beseitigt und die Platzierung unserer Bodenfliesen korrigiert haben. Wir würden gerne mehr tun, um die heiße Luft zurück zu den CRAC-Einheiten zu leiten, aber wir können noch keine Finanzierung erhalten.

Laura Thomas
quelle
9

Ich überspringe uns nicht. Wir vermieten und uns kosten Geld.

Heutzutage kein Grund zur Hitze. Die ganze kühle Luft kommt vorne und hinten raus. Es gibt keine Belüftungslöcher mehr in den Oberteilen.

mrdenny
quelle
1
Re: "Wir kosten Geld." Ich war der Meinung, dass Platz ein wichtiger Faktor bei der Preisgestaltung von Rechenzentren war. Dann bekam ich einen Job im Hosting-Bereich, wobei sich herausstellte, dass die meisten Kosten in einer Colo-Umgebung durch Stromkreise und Cross-Connects entstehen.
JamesBarnett
6

Google lässt U nicht zwischen Servern und ich denke, sie sind vom Wärmemanagement betroffen. Immer wieder interessant zu beobachten, wie große Spieler den Job machen. Hier ist ein Video von einem ihrer Rechenzentren: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded

Gehen Sie direkt zu 4:21, um die Server zu sehen.

Schloss Mathieu
quelle
5

Verlassen Sie den Raum nicht, wenn Sie kühle Luft vom Boden haben und verwenden Sie auch Leerzeichen in ungenutzten Räumen. Wenn Sie nur ein Low-Tech-Kühlsystem mit einer Standard-A / C-Einheit haben, lassen Sie am besten Lücken frei, um Hotspots zu minimieren, wenn sich die heißen Server zusammenballen.


quelle
4
Wenn Ihre Server eine Lüfter-Kühlung von vorne nach hinten verwenden, kann dies zu Lücken führen, die den Luftstrom beeinträchtigen.
Pause
5

Wir haben 3 1/2 Racks mit Clusterknoten und deren Lagerung in einer Colocation-Einrichtung. Die einzigen Stellen, an denen wir U's übersprungen haben, sind die Stellen, an denen wir die Netzwerkkabel zum zentralen Rack verlegen müssen, in dem sich der Core-Cluster-Switch befindet. Wir können es uns leisten, dies platzsparend zu tun, da die Racks in Bezug auf die Leistung bereits maximal ausgelastet sind, sodass es nicht möglich wäre, mehr Knoten in sie zu stopfen :)

Diese Maschinen laufen rund um die Uhr mit 100% CPU, und einige von ihnen haben bis zu 16 Kerne in einer 1U-Box (4x Quad-Core-Xeons), und ich habe noch keine negativen Auswirkungen zu sehen, wenn keine Leerzeichen zwischen den meisten von ihnen gelassen werden.

Solange Ihre Ausrüstung einen gut gestalteten Luftweg hat, kann ich nicht nachvollziehen, warum das von Bedeutung ist.

Kamil Kisiel
quelle
5

Ich habe große Lücken über meiner USV (für die Installation einer zweiten Batterie in der Zukunft) und über meiner Bandbibliothek (falls ich eine andere benötige). Ansonsten habe ich keine Lücken und benutze Panels, um leere Räume zu füllen, um den Luftstrom zu erhalten.

pauska
quelle
3

Jeder Dritte, aber das liegt an den Führungskräften und der Notwendigkeit, sie zu umgehen, anstatt an der Hitze. Die Tatsache, dass zu diesen Servern jeweils 6 Cat5-Kabel führen, hilft nicht. Wir machen starken Gebrauch von Blindplatten und Luftdämmen auf den Gestellen, um eine Rezirkulation aus dem heißen Gang zu verhindern.

Eine Sache, an der wir in unserem Rechenzentrum keinen Mangel haben, ist der Platz. Es wurde für eine Erweiterung entwickelt, als 7-10U-Server Standard waren. Jetzt, da wir uns mit Rack-dichten ESX-Clustern beschäftigt haben, ist es dort eine Geisterstadt.

sysadmin1138
quelle
OK, 6 Kabel, mal sehen ... 2 Management-Schnittstellen, 2 iscsi-Schnittstellen und 2 ... für den Cluster-Manager?
Matt Simmons
Verwenden Sie keine Managementarme und Sie müssen keine Einheiten überspringen. :)
Doug Luxem
1
6 Kabel: 1x HP iLO Karte, 1x ESX mgmt LUN, 4x VM Luns. Auch Fasern für das SAN. Wir haben iSCSI noch nicht gegangen. Wenn wir bereit wären, die Server vollständig auszuziehen, bevor wir sie herausziehen, würden wir definitiv auf die Waffen verzichten.
sysadmin1138
1
Nachdem ich Ihr Rechenzentrum gesehen habe, muss ich mich fragen, ob Sie die Dinge in einem traditionellen Warm- und Kaltgang einrichten, anstatt sie in Ihrem riesigen Raum zu verteilen, wenn Sie eine bessere thermische Leistung erzielen möchten.
Laura Thomas
3

Ich würde keine Lücken zwischen Servern lassen, aber ich werde es für Dinge wie LAN-Switches tun - dies erlaubt mir, einige 1U-Kabelverwaltungsleisten darüber und darunter zu platzieren ... aber es wird definitiv nicht für die Kühlung getan.

Mitch Miller
quelle
2

Keine Lücken, außer wo wir einen Server oder etwas anderes rausgenommen haben und uns nicht die Mühe gemacht haben, dies neu zu arrangieren. Ich denke, wir sind ein bisschen kleiner als viele Leute hier, mit 2 Racks, die nur etwa 15 Server plus ein paar Bandlaufwerke, Switches und USVs haben.

Ward
quelle
2

Keine Lücken außer bei der Planung für den Ausbau von San-Systemen oder ähnlichen Dingen. Wir ziehen es vor, neue Schränke in der Nähe der tatsächlichen Steuerungen aufzustellen.

Bei ordnungsgemäßer Kühlung ist das Belassen von Lücken nur dann von Vorteil, wenn der Server schlecht konstruiert ist.

Chankster
quelle
2

Ich habe den Eindruck (vielleicht zu Unrecht), dass dies in einigen Telekommunikationsumgebungen, in denen heiße / kalte Gänge nicht so häufig verwendet werden, eine populärere Praxis ist.

Es ist jedoch nicht für ein hochdichtes und gut betriebenes Rechenzentrum geeignet.

Dan Carley
quelle
1

Normalerweise hinterlasse ich eine leere RU nach ungefähr 5 RU Servern (dh 5x1ru oder 1x2ru + 1x3ru) und das hängt von der Kühlungskonfiguration in Ihrem Rechenzentrum ab. Wenn Sie die Kühlung vor dem Rack durchgeführt haben (dh ein Gitter im Rack) Die Idee ist, dass die kühle Luft vom Boden aufsteigt und Ihre Server die kühle Luft durch sie saugen. In diesem Fall erhalten Sie in der Regel eine bessere Kühlung, indem Sie keine leeren Steckplätze belassen (z. B. eine leere RU-Abdeckung verwenden). Wenn Sie jedoch nach meiner Erfahrung über die Bodenplatte in Ihrem Rack kühlen, wird die Kühlung effizienter, indem Sie die Server vom Stapeln abhalten übereinander für das gesamte Rack

Brendan
quelle
1

In einer Situation, in der wir ein eigenes Rechenzentrum hatten und der Platz kein Problem war, habe ich ein U (mit einem Abstandhalter zum Blockieren des Luftstroms) zwischen logischen Bereichen übersprungen: Webserver haben einen Abschnitt, Datenbank, Domänencontroller, E-Mail, und der Dateiserver hatte einen anderen, und Firewalls und Router hatten einen anderen. Switches und Patch-Panels für externe Desktops befanden sich in einem eigenen Rack.

Ich kann mich genau an eine Gelegenheit erinnern, bei der ich ein U aus Kühlungsgründen übersprungen habe. Dies war eine A / V-Kabel-TV-Loop-Lösung in einer High School, in der es drei Einheiten gab, die jeweils für die Versorgung eines Abschnitts des Gebäudes mit dem Kabel-TV-System verantwortlich waren. Nachdem die obere Einheit zum dritten Mal in zwei Jahren aufgrund einer Überhitzung ausgetauscht werden musste, führte ich eine "Operation" am Rack durch, um Befestigungslöcher zu bohren, damit ich zwischen jeder der drei Einheiten 1 / 2U Platz lassen konnte (z insgesamt 1 HE Gesamtfläche).

Dies löste das Problem. Es erübrigt sich zu erwähnen, dass dies gründlich dokumentiert wurde, und als besonders gutes Maß habe ich ein Blatt darüber geklebt, um zu erklären, warum die Dinge so waren, wie sie waren.

Hier gibt es zwei Lektionen:

  1. Das Belassen einer Lücke zum Kühlen erfolgt nur in Ausnahmefällen.
  2. Verwenden Sie einen seriösen Fall oder Server-Anbieter. Achten Sie darauf, dass Sie keine Geräte kaufen, die versuchen, Wärme im Wert von 2U in Platz im Wert von 1U zu packen. Dies wird verlockend sein, da das 1U-System möglicherweise viel billiger zu sein scheint. Achten Sie auch darauf, dass Sie keine Markenware kaufen, die den Luftstrom nicht ausreichend berücksichtigt.
Joel Coel
quelle
0

Ich habe sie in dem einen Gestell gestapelt, das ich habe. Hatte nie Probleme damit, also hatte ich nie einen Grund, sie auszuräumen. Ich würde mir vorstellen, dass der größte Grund, warum die Leute sie ausräumen würden, die Hitze ist.


quelle
0

Ich habe vorher 1/3 einer RU zwischen zwei Schaltern gelassen, hauptsächlich, weil sie jeweils 1 1/3 RU hoch waren.

Hätte ich sie hart zusammengesteckt, wäre der Gang höher um 1/3 einer U aus der Position geraten.

Abgesehen davon habe ich nie nur Platz zum Kühlen gelassen, sondern nur für zukünftiges Wachstum.

Criggie
quelle