Die C # /. NET-Anwendung, an der ich arbeite, leidet unter einem langsamen Speicherverlust. Ich habe CDB mit SOS verwendet, um festzustellen, was passiert, aber die Daten scheinen keinen Sinn zu ergeben. Ich hatte gehofft, dass einer von Ihnen dies schon einmal erlebt hat.
Die Anwendung wird auf dem 64-Bit-Framework ausgeführt. Es berechnet und serialisiert kontinuierlich Daten für einen Remote-Host und trifft den Large Object Heap (LOH) ein gutes Stück. Die meisten LOH-Objekte, von denen ich erwarte, dass sie vorübergehend sind: Sobald die Berechnung abgeschlossen ist und an den Remote-Host gesendet wurde, sollte der Speicher freigegeben werden. Was ich jedoch sehe, ist eine große Anzahl von (Live-) Objektarrays, die mit freien Speicherblöcken verschachtelt sind, z. B. ein zufälliges Segment aus dem LOH:
0:000> !DumpHeap 000000005b5b1000 000000006351da10
Address MT Size
...
000000005d4f92e0 0000064280c7c970 16147872
000000005e45f880 00000000001661d0 1901752 Free
000000005e62fd38 00000642788d8ba8 1056 <--
000000005e630158 00000000001661d0 5988848 Free
000000005ebe6348 00000642788d8ba8 1056
000000005ebe6768 00000000001661d0 6481336 Free
000000005f214d20 00000642788d8ba8 1056
000000005f215140 00000000001661d0 7346016 Free
000000005f9168a0 00000642788d8ba8 1056
000000005f916cc0 00000000001661d0 7611648 Free
00000000600591c0 00000642788d8ba8 1056
00000000600595e0 00000000001661d0 264808 Free
...
Natürlich würde ich erwarten, dass dies der Fall ist, wenn meine Anwendung bei jeder Berechnung langlebige, große Objekte erstellt. (Dies geschieht, und ich akzeptiere, dass es einen gewissen Grad an LOH-Fragmentierung geben wird, aber das ist hier nicht das Problem.) Das Problem sind die sehr kleinen Objektarrays (1056 Byte), die Sie im obigen Speicherauszug sehen können und die ich im Code nicht sehen kann erstellt werden und die irgendwie verwurzelt bleiben.
Beachten Sie auch, dass CDB den Typ nicht meldet, wenn das Heap-Segment ausgegeben wird: Ich bin nicht sicher, ob dies zusammenhängt oder nicht. Wenn ich das markierte (<-) Objekt speichere, meldet CDB / SOS dies in Ordnung:
0:015> !DumpObj 000000005e62fd38
Name: System.Object[]
MethodTable: 00000642788d8ba8
EEClass: 00000642789d7660
Size: 1056(0x420) bytes
Array: Rank 1, Number of elements 128, Type CLASS
Element Type: System.Object
Fields:
None
Die Elemente des Objektarrays sind alle Zeichenfolgen, und die Zeichenfolgen sind anhand unseres Anwendungscodes erkennbar.
Außerdem kann ich ihre GC-Wurzeln nicht finden, da der Befehl! GCRoot hängt und nie zurückkommt (ich habe sogar versucht, ihn über Nacht zu verlassen).
Ich würde es sehr begrüßen, wenn jemand Licht ins Dunkel bringen könnte, warum diese kleinen (<85k) Objektarrays auf dem LOH landen: In welchen Situationen wird .NET dort ein kleines Objektarray einfügen? Kennt jemand zufällig eine alternative Methode, um die Wurzeln dieser Objekte zu ermitteln?
Update 1
Eine andere Theorie, die ich gestern spät aufgestellt habe, ist, dass diese Objektarrays groß angefangen haben, aber verkleinert wurden, wobei die Blöcke des freien Speichers zurückbleiben, die in den Speicherabbildern erkennbar sind. Was mich misstrauisch macht, ist, dass die Objektarrays immer 1056 Bytes lang (128 Elemente), 128 * 8 für die Referenzen und 32 Bytes Overhead zu sein scheinen.
Die Idee ist, dass möglicherweise ein unsicherer Code in einer Bibliothek oder in der CLR die Anzahl der Elemente im Array-Header beschädigt. Ein bisschen weit hergeholt, ich weiß ...
Update 2
Dank Brian Rasmussen (siehe akzeptierte Antwort) wurde das Problem als Fragmentierung des LOH identifiziert, die durch die String-Intern-Tabelle verursacht wurde! Ich habe eine schnelle Testanwendung geschrieben, um dies zu bestätigen:
static void Main()
{
const int ITERATIONS = 100000;
for (int index = 0; index < ITERATIONS; ++index)
{
string str = "NonInterned" + index;
Console.Out.WriteLine(str);
}
Console.Out.WriteLine("Continue.");
Console.In.ReadLine();
for (int index = 0; index < ITERATIONS; ++index)
{
string str = string.Intern("Interned" + index);
Console.Out.WriteLine(str);
}
Console.Out.WriteLine("Continue?");
Console.In.ReadLine();
}
Die Anwendung erstellt und dereferenziert zuerst eindeutige Zeichenfolgen in einer Schleife. Dies soll nur beweisen, dass der Speicher in diesem Szenario nicht verloren geht. Offensichtlich sollte es nicht und es tut es nicht.
In der zweiten Schleife werden eindeutige Zeichenfolgen erstellt und interniert. Diese Aktion verwurzelt sie in der internen Tabelle. Was ich nicht realisiert habe ist, wie die interne Tabelle dargestellt wird. Es scheint, dass es aus einer Reihe von Seiten besteht - Objektarrays mit 128 Zeichenfolgenelementen -, die im LOH erstellt werden. Dies ist in CDB / SOS deutlicher:
0:000> .loadby sos mscorwks
0:000> !EEHeap -gc
Number of GC Heaps: 1
generation 0 starts at 0x00f7a9b0
generation 1 starts at 0x00e79c3c
generation 2 starts at 0x00b21000
ephemeral segment allocation context: none
segment begin allocated size
00b20000 00b21000 010029bc 0x004e19bc(5118396)
Large object heap starts at 0x01b21000
segment begin allocated size
01b20000 01b21000 01b8ade0 0x00069de0(433632)
Total Size 0x54b79c(5552028)
------------------------------
GC Heap Size 0x54b79c(5552028)
Ein Dump des LOH-Segments zeigt das Muster, das ich in der undichten Anwendung gesehen habe:
0:000> !DumpHeap 01b21000 01b8ade0
...
01b8a120 793040bc 528
01b8a330 00175e88 16 Free
01b8a340 793040bc 528
01b8a550 00175e88 16 Free
01b8a560 793040bc 528
01b8a770 00175e88 16 Free
01b8a780 793040bc 528
01b8a990 00175e88 16 Free
01b8a9a0 793040bc 528
01b8abb0 00175e88 16 Free
01b8abc0 793040bc 528
01b8add0 00175e88 16 Free total 1568 objects
Statistics:
MT Count TotalSize Class Name
00175e88 784 12544 Free
793040bc 784 421088 System.Object[]
Total 1568 objects
Beachten Sie, dass die Objektarraygröße 528 (anstelle von 1056) beträgt, da meine Workstation 32 Bit und der Anwendungsserver 64 Bit ist. Die Objektarrays sind immer noch 128 Elemente lang.
Die Moral dieser Geschichte ist es also, sehr vorsichtig zu internieren. Wenn nicht bekannt ist, dass die Zeichenfolge, die Sie internieren, Mitglied einer endlichen Menge ist, wird Ihre Anwendung aufgrund einer Fragmentierung des LOH zumindest in Version 2 der CLR auslaufen.
Im Fall unserer Anwendung enthält der Pfad des Deserialisierungscodes allgemeinen Code, der Entitätskennungen während des Unmarshalling interniert: Ich vermute jetzt stark, dass dies der Schuldige ist. Die Absichten des Entwicklers waren jedoch offensichtlich gut, da er sicherstellen wollte, dass nur eine Instanz der Bezeichnerzeichenfolge im Speicher verbleibt, wenn dieselbe Entität mehrmals deserialisiert wird.
quelle
Antworten:
Die CLR verwendet die LOH, um einige Objekte vorab zuzuweisen (z. B. das Array, das für internierte Zeichenfolgen verwendet wird ). Einige davon sind weniger als 85000 Bytes und werden daher normalerweise nicht auf dem LOH zugewiesen.
Es ist ein Implementierungsdetail, aber ich gehe davon aus, dass der Grund dafür darin besteht, unnötige Speicherbereinigungen von Instanzen zu vermeiden, die so lange überleben sollen, wie der Prozess selbst.
Aufgrund einer etwas esoterischen Optimierung werden
double[]
dem LOH auch 1000 oder mehr Elemente zugewiesen.quelle
GC.GetGeneration
die Instanz aufrufen . Dies gibt Gen2 zurück - die API unterscheidet nicht zwischen Gen2 und LOH. Wenn Sie das Array um ein Byte verkleinern, gibt die API Gen0 zurück.Das .NET Framework 4.5.1 bietet die Möglichkeit, den Large Object Heap (LOH) während der Garbage Collection explizit zu komprimieren.
Weitere Informationen finden Sie in GCSettings.LargeObjectHeapCompactionMode
quelle
Wenn Sie Beschreibungen der Funktionsweise von GC und des Teils darüber lesen, wie langlebige Objekte in Generation 2 enden und die Sammlung von LOH-Objekten nur bei vollständiger Sammlung erfolgt, fällt Ihnen die Idee ein, ebenso wie die Sammlung von Generation 2. .. warum nicht einfach Generation 2 und große Objekte auf demselben Haufen halten, da sie zusammen gesammelt werden?
Wenn dies tatsächlich der Fall ist, würde dies erklären, wie kleine Objekte am selben Ort wie das LOH landen - wenn sie lange genug leben, um in Generation 2 zu landen.
Und so scheint Ihr Problem eine ziemlich gute Widerlegung der Idee zu sein, die mir einfällt - es würde zur Fragmentierung des LOH führen.
Zusammenfassung: Ihr Problem könnte dadurch erklärt werden, dass LOH und Generation 2 dieselbe Heap-Region verwenden, obwohl dies keineswegs ein Beweis dafür ist, dass dies die Erklärung ist.
Update: Die Ausgabe von so
!dumpheap -stat
ziemlich bläst diese Theorie aus dem Wasser! Die Generation 2 und LOH haben ihre eigenen Regionen.quelle
double
Arrays mit mehr als 1000 Elementen auf dem LOH platziert, anstatt den GC zu optimieren, um sicherzustellen, dass sie an 8-Byte-Grenzen ausgerichtet sind. Selbst auf einem 32-Bit-System würde ich aufgrund des Cache-Verhaltens erwarten, dass das Auferlegen einer 8-Byte-Ausrichtung für alle Objekte, deren zugewiesene Größe ein Vielfaches von 8 Byte ist, wahrscheinlich einen Leistungsgewinn darstellt. Andernfallsdouble[]
weiß ich nicht, warum die Größe mit der Nutzung korreliert , obwohl die Leistung eines stark genutzten , auf den Cache ausgerichteten Benutzers besser wäre als die eines nicht genutzten .Wenn das Format als Ihre Anwendung erkennbar ist, warum haben Sie den Code, der dieses Zeichenfolgenformat generiert, nicht identifiziert? Wenn es mehrere Möglichkeiten gibt, versuchen Sie, eindeutige Daten hinzuzufügen, um herauszufinden, welcher Codepfad der Schuldige ist.
Die Tatsache, dass die Arrays mit großen freigegebenen Elementen verschachtelt sind, lässt mich vermuten, dass sie ursprünglich gepaart oder zumindest verwandt waren. Versuchen Sie, die freigegebenen Objekte zu identifizieren, um herauszufinden, was sie generiert hat, und die zugehörigen Zeichenfolgen.
Wenn Sie herausgefunden haben, was diese Zeichenfolgen generiert, versuchen Sie herauszufinden, was sie davon abhält, GCed zu werden. Vielleicht werden sie in eine vergessene oder nicht verwendete Liste für Protokollierungszwecke oder ähnliches gestopft.
BEARBEITEN: Ignorieren Sie den Speicherbereich und die spezifische Arraygröße für den Moment: Finden Sie einfach heraus, was mit diesen Zeichenfolgen gemacht wird, um ein Leck zu verursachen. Probieren Sie den! GCRoot aus, wenn Ihr Programm diese Zeichenfolgen nur ein- oder zweimal erstellt oder bearbeitet hat, wenn weniger Objekte verfolgt werden müssen.
quelle
Tolle Frage, ich habe durch das Lesen der Fragen gelernt.
Ich denke, dass andere Teile des Deserialisierungscodepfads auch den großen Objekthaufen verwenden, daher die Fragmentierung. Wenn alle Saiten zur gleichen Zeit interniert wären, wären Sie in Ordnung.
Wenn man bedenkt, wie gut der .net-Garbage-Collector ist, ist es wahrscheinlich gut genug, nur den Deserialisierungscodepfad ein normales Zeichenfolgenobjekt erstellen zu lassen. Machen Sie nichts Komplexeres, bis die Notwendigkeit bewiesen ist.
Ich würde höchstens versuchen, eine Hash-Tabelle der letzten Zeichenfolgen zu führen, die Sie gesehen haben, und diese wiederzuverwenden. Indem Sie die Größe der Hash-Tabelle begrenzen und die Größe beim Erstellen der Tabelle übergeben, können Sie die meisten Fragmentierungen stoppen. Sie benötigen dann eine Möglichkeit, Zeichenfolgen, die Sie in letzter Zeit nicht gesehen haben, aus der Hash-Tabelle zu entfernen, um deren Größe zu begrenzen. Aber wenn die Zeichenfolgen, die der Deserialisierungscode-Pfad erstellt, ohnehin nur von kurzer Dauer sind, werden Sie nicht viel gewinnen, wenn überhaupt.
quelle
Hier sind einige Möglichkeiten, um den genauen Aufrufstapel der LOH- Zuweisung zu ermitteln.
Und um eine LOH-Fragmentierung zu vermeiden, weisen Sie eine große Anzahl von Objekten vorab zu und stecken Sie sie fest. Verwenden Sie diese Objekte bei Bedarf wieder. Hier ist ein Beitrag zur LOH-Fragmentierung. So etwas könnte helfen, eine LOH-Fragmentierung zu vermeiden.
quelle
Laut http://webcache.googleusercontent.com/search?q=cache:l3Ppy_eFoAAJ:www.wintellect.com/devcenter/sloscialo/hey-who-stole-all-my-memory+&cd=5&hl=de&ct=clnk&gl= mx & client = Firefox-b
quelle