Aktualisieren Sie einen DataFrame in verschiedenen Python-Prozessen in Echtzeit

8

Nehmen wir also an, Sie haben einen Python-Prozess, der Daten in Echtzeit mit ungefähr 500 Zeilen pro Sekunde (dies kann weiter parallelisiert werden, um auf ungefähr 50 ps zu reduzieren) aus einem Warteschlangensystem sammelt und an Folgendes anfügt DataFrame:

rq = MyRedisQueue(..)
df = pd.DataFrame()
while 1:
    recv = rq.get(block=True)
    # some converting
    df.append(recv, ignore_index = True)

Die Frage ist nun: Wie werden die CPUs basierend auf diesen Daten genutzt? So bin ich von den Einschränkungen des voll bewusst GIL , und sah in Manager - Multiprocessing - Namespace , auch hier , aber es sieht so gibt es einige Nachteile im Hinblick auf die Latenz auf dem centerally halten Datenrahmen . Bevor ich pool.mapmich damit beschäftigte, habe ich auch versucht, was ich dann erkannt habe , um es picklezwischen den Prozessen anzuwenden , was viel zu langsam ist und zu viel Overhead hat.

Nach all dem frage ich mich schließlich, wie (wenn) eine Einfügung von 500 Zeilen pro Sekunde (oder sogar 50 Zeilen pro Sekunde) auf verschiedene Prozesse übertragen werden kann, wobei noch etwas CPU-Zeit für die Anwendung von Statistiken und Heuristiken auf die Daten im Kind verbleibt Prozesse?

Vielleicht wäre es besser, einen benutzerdefinierten TCP-Socket oder ein Warteschlangensystem zwischen den beiden Prozessen zu implementieren? Oder gibt es einige Implementierungen in pandasoder andere Bibliotheken, um wirklich einen schnellen Zugriff auf den einen großen Datenrahmen im übergeordneten Prozess zu ermöglichen ? Ich liebe Pandas!

gies0r
quelle
Möchten Sie die Statistiken nur für die Blöcke von 50 bis 500 Zeilen ausführen, die jede Sekunde neu sind, und sie kontinuierlich an einen großen DF anhängen? Der große DF sollte gespeichert werden oder benötigen Sie mehr Echtzeitverarbeitung, um ihn auszuführen?
Ronald Luc
@RonaldLuc Wenn es eine notwendige Anforderung ist, würde ich sie auf Statistiken über die neuen 50 bis 500 Zeilen beschränken, ja. Ich könnte Mittelwerte und Höhen / Tiefen in zusätzlichen Variablen halten, um die vorhandenen Daten im großen DataFrame zu verfolgen.
gies0r

Antworten:

4

Bevor wir beginnen, sollte ich sagen, dass Sie uns nicht viel über Ihren Code erzählt haben, aber diesen Punkt im Kopf haben, nur diese 50/500 neuen Zeilen pro Sekunde an den untergeordneten Prozess zu übertragen und zu versuchen, diesen großen untergeordneten Prozess zu erstellen DataFrame.

Ich arbeite an einem Projekt genauso wie Sie. Python hat viele IPC-Implementierungen wie Pipeund Queuewie Sie wissen. Shared MemoryDie Lösung kann in vielen Fällen problematisch sein. Die offizielle Dokumentation von AFAIK Python warnt vor der Verwendung gemeinsamer Speicher.

Nach meiner Erfahrung besteht der beste Weg, Daten zwischen nur zwei Prozessen zu transformieren Pipe, darin, DataFrame auszuwählen und an den anderen Verbindungsendpunkt zu senden. Ich empfehle Ihnen dringend, in Ihrem Fall TCPSockets ( AF_INET) zu vermeiden .

Pandas DataFramekönnen nicht in einen anderen Prozess umgewandelt werden, ohne eingelegt und ungepflückt zu werden. dictDaher empfehle ich Ihnen auch, Rohdaten als integrierte Typen wie anstelle von DataFrame zu übertragen. Dies kann das Beizen und Entnehmen beschleunigen und hat auch weniger Speicherbedarf.

AmirHmZ
quelle
Ich freue mich über Ihre Antwort @AmirHmZ! Besonders der Link zum Benchmark ist nett (und die Tools dazu, die ich noch nicht kannte). Eine Lösung in diesem Shared MemoryBereich, die hoffentlich viele Lesevorgänge aus den untergeordneten Prozessen verarbeiten kann, während die Hauptprozesse daran angehängt werden, könnte dies aus meiner Sicht tun, wenn ich die Schreibzugriffe auf den übergeordneten Prozess kaum einschränke.
gies0r
.. Aber ich weiß nicht, ob das shared memoryin irgendeiner Art ist, block statewährend ich darauf schreibe? Das würde bedeuten, dass untergeordnete Prozesse den DataFrame nicht lesen dürfen, während der übergeordnete Prozess daran angehängt wird (was fast immer der Fall sein wird).
gies0r
@ gies0r Entschuldigung für meine Inaktivität. Wenn Sie eine Shared MemoryLösung verwenden möchten, sollten Sie die untergeordneten Prozesse mit dem Lieferantenprozess synchronisieren. Dies könnte geschehen durch multiprocessing.Lock: docs.python.org/3/library/…
AmirHmZ
0

Die Parallelisierung in pandaswird wahrscheinlich von einem anderen Motor insgesamt besser gehandhabt.

Schauen Sie sich das Koalas-Projekt von Databricks oder Dasks DataFrame an .

jorijnsmit
quelle
Nun ... das ist eine sehr große Menge an Code, der überprüft und repariert werden muss ... Dasks scheint eine gute Anpassung zu haben, aber es ist immer noch eine Menge Arbeit. Kennen Sie ein Beispiel, in dem ein solches Datenlade- / Aktualisierungsintervall wie das in der Frage erwähnte implementiert / dokumentiert wurde?
gies0r
Ich habe Dask verwendet, um Datensätze mit mehr als 200 GB parallel und mit geringem Speicherbedarf zu verarbeiten, aber es war nicht online. Dask besteht im Grunde aus vielen übereinander gestapelten Pandas-Datenrahmen.
Ronald Luc
@RonaldLuc Welche Art von Operationen haben Sie auf Ihrem lokalen Computer ausgeführt?
Datanovice
Laden aus Parkett, zeilenweise numerische Operationen, Berechnung von Geolokalisierungen, einige Operationen an "lokalen Pandas DataFrame" ( df.map_partitions) und dann groupbyIndex (wichtig für die Leistung in Dask), speichern als CSV.
Ronald Luc
0

Eine einfache Lösung wäre, den Prozess in zwei verschiedene Stufen zu unterteilen. Verwenden Sie Asyncio, um die Daten nicht blockierend zu empfangen und Ihre Transformationen innerhalb dieser durchzuführen. Die zweite Stufe würde eine Asyncio-Warteschlange zum Erstellen des DataFrame verwenden. Dies setzt voraus, dass Sie den DataFrame nicht für einen anderen Prozess benötigen, während Sie Daten aus der Redis-Warteschlange empfangen.

Hier ist ein Beispiel für die Erstellung eines Produzenten / Konsumenten-Modells mit Asyncio

Arshit Arora
quelle