Ich habe eine OpenSolaris-Box, die zwei ZFS-Dateisysteme gemeinsam nutzt. Eine ist eine NFS-Verbindung zu einer CentOS-Box, auf der VMware Server ausgeführt wird (die Disk-Images werden in ZFS gespeichert). Die andere ist eine iSCSI-Verbindung zu einem Windows 2008-Server mit NTFS-Formatierung über dem ZFS. Beide Verbindungen sind direkt über Gig-E (keine Schalter).
Ich lasse Munin laufen, um die Boxen zu überwachen, aber ich bin mir nicht sicher, welche Art von Zahlen ich erwarten sollte. Kann mir jemand einige Basiszahlen zum Vergleich geben oder Vorschläge machen, wo ich mit der Abstimmung beginnen soll?
Hier sind die NFS-Statistiken, die ich sehe. Ich werde iSCSI veröffentlichen, sobald ich Munin auf der Solaris-Box repariert habe: P.
vmware-server
nfs
iscsi
zfs
Sysadminicus
quelle
quelle
Antworten:
Wir haben einen Sun X4100, der über gebundenes GigE und iSCSI schreibt, auf einen Sun X4500 mit 280 MB / s übertragen.
Es kann viel getan werden, um den TCP-Stack unter Solaris zu optimieren, um Abhilfe zu schaffen. (Aus einer Sammlung von Sun Whitepapers):
Es lohnt sich auch, einen Blick auf Ihren OpenSolaris-Computer zu werfen, indem Sie das fsflush-Intervall, die Interrupt-Einstellung "magic" und das Deaktivieren von Soft Rings ändern. Hängen Sie Folgendes an / etc / system an (Neustart erforderlich):
Erwähnenswert ist, dass ich dies unter Solaris 10 mache - nicht unter OpenSolaris -, aber ich denke, die Tunables sollten trotzdem für Sie funktionieren.
Ich bin ein großer Fan von Filebench, weil ich mit Optimierungsoptionen herumgespielt und Durchsatztests durchgeführt habe.
Die (kürzlich umbenannte) Version von OpenSolaris 2009.06 scheint in der Welt von iSCSI und ZFS sehr aufregend zu sein.
Hoffe das hilft einigen!
quelle
Ich erhalte ungefähr 90 MB / s für meine EMC AX150i-Arrays über iSCSI auf 1 GB Ethernet.
quelle
Für nur ein einzelnes dd oder bonnie ++ (Rohgeschwindigkeit, lineares Schreiben) sollten Sie der Drahtgeschwindigkeit ziemlich nahe kommen.
Ihr Engpass wird jedoch das Festplattenarray sein, sobald Sie die zufällige E / A-Last mehrerer VMs in Gang setzen, viel mehr als der Transport.
Wenn Sie keinen batteriegepufferten Schreibcache mit viel RAM haben, wird Ihre Leistung beeinträchtigt, sobald Sie mit anderen E / A-Vorgängen viele Schreibvorgänge ausführen.
quelle
Ich konnte Daten über iSCSI über 1 GB-Verbindungen auf etwa 200 Mbit / s übertragen. Aber ich hatte ein RAID 6 mit 14 Festplatten, das von einem EMC CX4-240 gehostet wurde, wobei zu diesem Zeitpunkt nicht viel anderes den Cache benutzte.
Der größte Engpass wird wahrscheinlich die Größe des Controller-Cache und die Geschwindigkeit der Festplatten sein (wenn der Cache voll ist).
quelle
Ich erhalte über ISCSI auf 1G-Ethernet ungefähr 80 MB / S auf meinem Windows-Server. Ziel: KernSafe iStorage Server http://www.kernsafe.com/Product.aspx?id=5 Initiator: Microsoft Initiator www.microsoft.com/downloads/details.aspx?familyid=12cb3c1a-15d6-4585-b385-befd1319f825&displaylang= en
Festplatte: ATA 7200
quelle
Für diejenigen von uns, die näher am Semi-Pro-Ende der Dinge sind (anstatt Pro), erhalte ich konstante und konsistente 150 MB Lese- und 120 MB Schreibzugriff vom W2012-Server Dual 1 GB Nic, kombiniert über einen von Draytek verwalteten Switch zu Blackarmorsnas über RJ45-Kupfer, einmalige Übertragung von 20 GB-Dateien. Keine anderen gleichzeitigen Operationen während des Tests. Um dies zu erreichen, verwende ich Jumbo-Frames 9k, RX & TX-Flow, dh alle normalen Treiberoptimierungen, aber keine anderen Optimierungen als das Einschalten und Erhöhen des Jumbo-Frames auf max.
quelle