Data Science

10
Dimensionssprung beim maschinellen Lernen

Was ist das Problem des Dimensionssprungs beim maschinellen Lernen (das in Faltungs-Neuronalen Netzen und bei der Bilderkennung auftritt)? Ich habe darüber gegoogelt, aber alles, was ich bekomme, sind Informationen über die Physik der Materialformverformung. Es ist für mich hilfreicher, wenn jemand...

10
Welche Bedeutung hat das Zusammenführen von Modellen in Keras?

Ich habe erfahren, dass Keras eine Funktion zum "Zusammenführen" von zwei Modellen hat, und zwar wie folgt: from keras.layers import Merge left_branch = Sequential() left_branch.add(Dense(32, input_dim=784)) right_branch = Sequential() right_branch.add(Dense(32, input_dim=784)) merged =...

10
Wie exportiere ich eine Zelle eines Jupyter-Notebooks?

Ich arbeite gerade an einem Jupyter- Notebook. Ich möchte einen Teil meines Codes auf einer eigenständigen iPython- Shell ausführen . Im Moment exportiere ich meinen iPython- Code (Datei -> Download als) und führe ihn dann in meinem iPython aus (mit% run). Es funktioniert, aber ich möchte nur...

10
Wie mache ich ein Batch-Innenprodukt in Tensorflow?

Ich habe zwei Tensoren a:[batch_size, dim] b:[batch_size, dim]. Ich möchte inneres Produkt für jedes Paar in der Charge machen c:[batch_size, 1], wo erzeugen c[i,0]=a[i,:].T*b[i,:].

10
Wie genau funktioniert DropOut mit Faltungsschichten?

Dropout ( Papier , Erklärung ) setzt die Ausgabe einiger Neuronen auf Null. Für ein MLP könnten Sie also die folgende Architektur für den Irisblumendatensatz haben : 4 : 50 (tanh) : dropout (0.5) : 20 (tanh) : 3 (softmax) Es würde so funktionieren:

10
Gradient Boosting Tree: „Je variabler desto besser“?

Aus dem Tutorial des XGBoost geht hervor, dass, wenn jeder Baum wächst, alle Variablen gescannt werden, um ausgewählt zu werden, um Knoten zu teilen, und die mit der maximalen Verstärkungsaufteilung ausgewählt wird. Meine Frage ist also, was wäre, wenn ich dem Datensatz einige Rauschvariablen...