Eine Person erhält drei Gegenstände, beispielsweise Bilder von Gesichtern, und wird gebeten, herauszufinden, welche der drei Gesichter am ähnlichsten sind. Dies wird sehr oft mit verschiedenen Kombinationen von Gesichtern wiederholt, wobei jedes Gesicht in vielen Kombinationen auftreten kann. Angesichts dieser Art von Daten möchte ich den Unterschied / die Ähnlichkeit zwischen den Gesichtern modellieren / schätzen, indem ich davon ausgehe, dass jedes Gesicht in einem 2D-Raum (oder 3D, 4d usw.) platziert werden kann, in dem der Abstand zwischen jedem Gesicht die Auswahl von widerspiegelt der Teilnehmer.
Was wäre eine gute (vielleicht sogar Standard-) Methode, dies zu modellieren / abzuschätzen?
Hinweise auf Modelle / Papiere und / oder Softwarepakete werden sehr geschätzt.
quelle
MASS::isoMDS()
inR
.Antworten:
Ein guter Ansatz für diese Art von Problem findet sich in Abschnitt 4 des Papiers The Bayesian Image Retrieval System, PicHunter von Cox et al. (2000). Die Daten sind eine Menge von ganzzahligen Ergebnissen wobei die Anzahl der Versuche ist. In Ihrem Fall gibt es 3 mögliche Ergebnisse pro Studie. Ich werde den Index des ausgelassenen Gesichts sein lassen. Die Idee ist, ein generatives Modell für das Ergebnis bei bestimmten Modellparametern zu postulieren und die Parameter dann anhand der maximalen Wahrscheinlichkeit zu schätzen. Wenn wir Gesichter und der Teilnehmer sagt, dass am ähnlichsten sind, ist das Ergebnis mit WahrscheinlichkeitA1,...,AN N Ai (X1,X2,X3) (X2,X3) A=1 d ( X 2 , X 3 ) σ d ( x , y ) = √
Das Modell in dem Papier war etwas anders, da das Papier bekannte Attribute der Bilder zur Berechnung der Entfernung verwendete und keine unbekannte Einbettung. Um eine Einbettung zu lernen, benötigen Sie einen viel größeren Datensatz, in dem jedes Gesicht mehrmals angezeigt wurde.
Dieses Grundmodell geht davon aus, dass alle Studien unabhängig sind und alle Teilnehmer gleich sind. Ein netter Vorteil dieses Ansatzes ist, dass Sie das Modell leicht so verschönern können, dass es Nichtunabhängigkeit, Teilnehmereffekte oder andere Kovariaten enthält.
quelle
Habe gedacht:
Ich denke, Eigengesichter sind eine anständige Möglichkeit, millionenschwere Räume in einige zehn Dimensionen umzuwandeln.
Prämisse:
Nehmen wir also an, Sie verwenden ein anständiges Eigengesichtstool oder eines, das:
Dies bedeutet, dass Sie nicht so viele "Bilder" haben wie Vektoren mit einer Länge von O (n = 50) Elementen, wobei die Elemente Gewichte für jede Eigenfläche sind, aus der die Basis besteht.
Analyse:
Zuerst würde ich Vektoren mit 150 Elementen (Verkettung des Gewichts) als Eingaben und Vektoren mit 1 Elementen (Elemente mit der engsten Übereinstimmung) als Ausgaben erstellen. Wenn Element 1 und 2 am nächsten wären, wäre der Ausgabewert "12". Wenn die Elemente 1 und 3 am nächsten wären, wäre die Ausgabe "13". Wenn die Elemente 2 und 3 am nächsten wären, wäre die Ausgabe "23". Da es nur 3 eindeutige Ausgänge gibt, könnte ich sie Fall 1 für "12", Fall 2 für "13" und Fall 3 für "23" neu zuordnen.
Zweitens möchte ich so viele bedeutungslose Daten wie möglich wegwerfen. Dies bedeutet, dass ich versuchen würde, so etwas wie zufällige Wälder zu verwenden, um festzustellen, welche der ~ 150 Spalten nicht informativ waren. Es gibt auch eine "zufällige böse Zwillingsmethode", aber ich habe sie nicht so zur Hand, wie R es mir mit zufälligen Wäldern gibt. (Wenn Sie eine gute R-Bibliothek dafür kennen, lade ich Sie ein, sie in die Kommentare aufzunehmen).
Drittens kann nach meiner persönlichen Erfahrung eine zufällige Gesamtstruktur Sie bei anständigen Stichprobengrößen und einer anständigen Basis normalerweise auf die ~ 30 interessierenden Variablen reduzieren, selbst aus bis zu 15.000 Spalten. Hier müssen Sie die allgemeine Form der Antwort berücksichtigen.
Sie könnten ein Dutzend Arten von Transformationen dieser Variablen ausprobieren, um die reduzierten Eingaben den Ausgaben zuzuordnen:
Weitere Gedanken:
UPDATE:
Das Tool "Random Evil Twin" ist "Boruta". ( Link )
quelle