Ich war an den Spezifikationen des UNIX-Servers interessiert, den meine Universität für Studenten bereitstellt, und habe screenfetch ausgeführt . Hier ist die Ausgabe:
[email protected]
`.-..........` OS: Red Hat Enterprise Linux 7.5 Maipo
`////////::.`-/. Kernel: x86_64 Linux 3.10.0-862.14.4.el7.x86_64
-: ....-////////. Uptime: 9h 1m
//:-::///////////` Packages: 3796
`--::: `-://////////////: Shell: bash 4.2.46
//////- ``.-:///////// .` CPU: Intel Xeon E5-2680 v2 @ 40x 3.6GHz [61.0°C]
`://////:-.` :///////::///:` GPU: Matrox Electronics Systems Ltd. G200eR2
.-/////////:---/////////////: RAM: 8290MiB / 64215MiB
.-://////////////////////.
yMN+`.-::///////////////-`
.-`:NMMNMs` `..-------..`
MN+/mMMMMMhoooyysshsss
MMM MMMMMMMMMMMMMMyyddMMM+
MMMM MMMMMMMMMMMMMNdyNMMh` hyhMMM
MMMMMMMMMMMMMMMMyoNNNMMM+. MMMMMMMM
MMNMMMNNMMMMMNM+ mhsMNyyyyMNMMMMsMM
Alles, was ich über Matrox-GPUs finden kann, ist die Wikipedia-Seite, auf der steht, dass der G200 1998 veröffentlicht wurde. Warum sollte meine Universität sie auf einem modernen Server installieren (die CPU wurde Ende 2013 freigegeben)?
Antworten:
Allzweckserver benötigen keine moderne GPU - gerade genug, um einen mittelgroßen Konsolendesktop anzuzeigen. Sie beschäftigen sich hauptsächlich mit normalem CPU-Computing und Networking.
Matrox G200-VGAs werden jedoch häufig auf Servern verwendet, da sie in einen Baseboard-Management-Controller (BMC, auch als iLO, iDRAC oder IPMI bezeichnet) integriert sind.
Dieser Management-Controller fungiert als eigenständiges System mit eigenem Betriebssystem und ermöglicht dem Serveradministrator eine Remote-Verbindung mit dem Konsolendisplay und der Tastatur. Er kann die BIOS-Bildschirme anzeigen, einen Server neu starten, selbst wenn er vollständig eingefroren ist, und ihn sogar mit voller Leistung starten. aus. Für diese Aufgaben muss der Controller wissen, was der Grafikadapter gerade anzeigt.
Daher würde ich vermuten, dass die alten Matrox-Videoadapter dafür verwendet werden, da sie den Videopuffer im System-RAM (anstelle ihres eigenen VRAM) speichern und ein ausreichend einfaches Datenlayout verwenden, damit der BMC ihn entschlüsseln kann, ohne dass man sich mit den GPUs auskennt Interna, noch ohne Hilfe von der Haupt-OS.
(Oder vielleicht das Gegenteil - wie in den Kommentaren erwähnt, ist der G200 normalerweise in den BMC eingebaut , wodurch der BMC möglicherweise vollständig direkten Zugriff auf den Videopuffer des G200 erhält .)
Aber selbst wenn der Server für GPU-Computing gebaut wäre, würde er vermutlich keine "All-in-One-Grafikkarte" wie PCs haben, sondern einen Satz dedizierter GPGPUs (z. B. von nVidia) für Heavy- Computer Arbeit - und immer noch die gleiche Matrox VGA für die Konsole.
quelle
Die Matrox G200eR2 ist keine separate Grafikkarte. Es ist ein Chip, der direkt in das Server-Motherboard integriert ist. Es ist billig, sehr zuverlässig, einfach zu integrieren und bietet hervorragende Anzeigefähigkeit für Text (Konsole) und gute 2D-Grafikfähigkeiten. Es ist auch so bekannt, dass fast jedes Betriebssystem für Intel-Hardware eine integrierte Treiberunterstützung hat.
Der einzige Zweck für eine VGA-Karte besteht darin, eine grundlegende Konsolenanzeige zu erhalten, die Sie für das BIOS-Setup und die Erstinstallation des Servers verwenden können. Danach greifen Sie wahrscheinlich nur noch remote auf den Server zu. Es muss keine gute VGA-Karte sein. Sie werden nicht darauf spielen. Aber es ist ein großer Segen, wenn es mit jedem Betriebssystem, das Sie auf dem Server installieren möchten, sofort funktioniert. Und das ist alles, was Sie in einem Server brauchen und wollen.
Matrox-Chips waren für diesen Zweck immer sehr beliebt, und dieser spezielle wurde 2014 noch in neuen Dell-Servern und wahrscheinlich auch in einigen anderen Marken verwendet.
quelle
You are not going to be gaming on it.
- Sprechen Sie für sich selbst, ich habe Automatisierungsprogramme für Online-MMORPG-Spiele erstellt und sie rund um die Uhr laufen lassen, um rudimentäre, aber nützliche Aufgaben auf Servern zu erledigen.Weil ein Server keine Hochleistungs-GPU benötigt. Übrigens hatte
Matrox gute Multi-Monitor- Grafikkarten, lange bevor ATI / AMD und NVidia sie hatten.
Zum Zeitpunkt des Kaufs war die Entscheidung also wahrscheinlich logisch.
quelle