Ich benutze Libsvm , um Daten zu trainieren und Klassifizierungen für semantische Analyseprobleme vorherzusagen . Bei umfangreichen Daten tritt jedoch ein Leistungsproblem auf, da die semantische Analyse das Problem der n-Dimension betrifft .
Letztes Jahr wurde Liblinear veröffentlicht und kann Leistungsengpässe beheben . Aber es kostet zu viel Speicher . Ist MapReduce die einzige Möglichkeit, das Problem der semantischen Analyse für Big Data zu lösen? Oder gibt es andere Methoden, die den Speicherengpass bei Liblinear verbessern können ?
machine-learning
bigdata
libsvm
Papageientaucher GDI
quelle
quelle
Sie können Vowpal Wabbit auschecken . Es ist sehr beliebt für umfangreiches Lernen und enthält parallele Bestimmungen.
Von ihrer Website:
quelle