Wir haben hier einen RHEL 5.6-Server mit 4 aktiven Pfaden zu einer einzelnen LUN. Wir vermuten, dass es nicht in der Lage ist, genügend E / A in der Pipeline zum XIV am anderen Ende zu stopfen:
mpath0 (XXXXXXXXXXXXXXX) dm-9 IBM,2810XIV
[size=1.6T][features=1 queue_if_no_path][hwhandler=0][rw]
\_ round-robin 0 [prio=4][active]
\_ 2:0:1:2 sdaa 65:160 [active][ready]
\_ 1:0:0:2 sdc 8:32 [active][ready]
\_ 1:0:1:2 sdk 8:160 [active][ready]
\_ 2:0:0:2 sds 65:32 [active][ready]
Device: rrqm/s wrqm/s r/s w/s rkB/s wkB/s avgrq-sz avgqu-sz await svctm %util
sdc 0.00 108.18 49.30 273.65 795.21 1527.35 14.38 0.49 1.51 1.16 37.50
sdk 0.00 101.00 49.70 280.44 1700.60 1525.75 19.55 0.55 1.67 1.15 38.06
sds 0.20 110.58 50.10 270.26 1287.82 1523.35 17.55 0.51 1.58 1.17 37.47
sdaa 0.00 99.60 46.31 285.23 781.64 1539.32 14.00 0.56 1.68 1.23 40.74
dm-9 0.00 0.00 195.61 1528.94 4565.27 6115.77 12.39 2.52 1.46 0.58 99.54
Es sieht so aus, als ob RHEL in der Lage sein sollte, weit mehr IOPS über jeden Pfad zu senden (was auf dem XIV-Speichersubsystem wünschenswert ist), aber der% util auf dem dm-9-Gerät (das die Mehrwegekarte ist) liegt bei etwa 100%.
Bedeutet dies, dass RHEL keine IOPS in den Mehrweg packen kann (und somit der Engpass RHEL ist)? Wie soll ich das interpretieren?
Wie erhalten wir 99,54% von 37,50, 38,06, 37,47, 40,74 auf einzelnen Festplatten?
noop
ist dort definitiv die richtige Wahl. Hmm, ich bin mir sonst nicht sicher.Antworten:
Experimente scheinen zu bestätigen, dass die Zeit, die der Kernel damit verbringt, auf den Abschluss eines Synchronisierungsschreibens zu warten, auf beschäftigt% angerechnet wird.
Die Arbeitslast dieser bestimmten Anwendung (DB2 mit dem synchronen Überwachungsprotokoll) war also wie folgt:
zum Überwachungsprotokoll für jede geprüfte Aktivität. Welche Leistung getötet.
quelle
Alles mit Ihrem DM-Setup scheint in Ordnung zu sein, auch die
iostat
Ausgabe sieht völlig normal aus. 1500 IOPS sind für DM so gut wie nichts und Erdnüsse laden für den XIV. Sie müssen woanders suchen.quelle