Wer von euch in diesem Forum verwendet „> R mit dem Multi - Core , Schneepakete oder CUDA , so für komplexe Berechnungen , die mehr Leistung als eine Workstation - CPU benötigen? Auf welcher Hardware Sie diese Skripte Sie berechnen? Zu Hause / Arbeit oder haben Sie Rechenzentrumszugriff irgendwo?
Der Hintergrund dieser Fragen ist folgender: Ich schreibe gerade meinen M.Sc. Ich habe gelesen, dass R im Jahr 2008 1 Million Benutzer hatte, aber das ist mehr oder weniger die einzige Benutzerstatistik, die ich zu diesem Thema finden konnte - also hoffe ich auf Ihre Antworten!
Ihr Heinrich
Antworten:
Ich bin ein Biologe, der die Auswirkungen der jährlichen Klimaschwankungen auf die Populationsdynamik mehrerer wandernder Arten modelliert. Meine Datensätze sind sehr groß (raumintensive Daten), daher
multicore
führe ich meinen R-Code auf Amazon EC2-Servern aus. Wenn meine Aufgabe besonders ressourcenintensiv ist, wähle ich eine besonders große High Memory Quadruple-Instanz mit 26 CPU-Einheiten, 8 Kernen und 68 GB RAM. In diesem Fall führe ich normalerweise 4-6 Skripte gleichzeitig aus, von denen jedes einen ziemlich großen Datensatz durchläuft. Für kleinere Aufgaben wähle ich Server mit 4-6 Kernen und etwa 20 GB RAM.Ich starte diese Instanzen (normalerweise vor Ort, weil sie billiger sind, aber immer dann beendet werden können, wenn die aktuelle Rate die von mir gewählte Rate überschreitet), führe das Skript mehrere Stunden lang aus und beende die Instanz dann, wenn mein Skript beendet ist. Was das Maschinen-Image (Amazon Machine Image) anbelangt, habe ich eine andere Ubuntu-Installation durchgeführt, R aktualisiert, meine Pakete installiert und dieses als mein privates AMI auf meinem S3-Speicherplatz gespeichert.
Mein persönlicher Computer ist ein Dualcore-MacBook-Pro, und es fällt mir schwer, Multicore-Anrufe zu tätigen. Wenn Sie weitere Fragen haben, senden Sie uns bitte eine E-Mail.
quelle
Da Sie fragen, verwende ich das foreach- Paket mit dem Multicore- Backend. Ich benutze es, um eine peinlich parallele Arbeitslast auf mehrere Kerne auf einer einzigen Nehalem-Box mit viel RAM aufzuteilen . Dies funktioniert ziemlich gut für die anstehende Aufgabe.
quelle
Ich arbeite in der Akademie und verwende Multicore für einige strenge Benchmarks von Algorithmen für maschinelles Lernen, hauptsächlich auf unserer Opteron-basierten Sun Constellation und einigen kleineren Clustern. Dies sind auch ziemlich peinliche Parallelprobleme. Daher besteht die Hauptaufgabe von Multicore darin, die Berechnung auf den Knoten zu verteilen, ohne die Speichernutzung zu vervielfachen.
quelle
Ich verwende Schnee und Schneefall für die Parallelisierung von Kursen auf HPC-Clustern und CUDA für die parallele Verarbeitung feiner Daten. Ich bin in der Epidemiologie und arbeite an der Modellierung der Krankheitsübertragung. Also benutze ich beide.
quelle