Ich bin nicht sicher, ob dies zuvor versucht wurde, aber ich versuche, Kinect zu verwenden und Gesten des Nao-Roboters zu erkennen .
Ich habe eine Kinect-Anwendung erstellt, einen gestenbasierten Bildbetrachter , der Menschen gut erkennt (offensichtlich!). Ich wollte versuchen, (faul wie ich bin) zu prüfen, ob ich einen Befehl (z. B. Sprache) verwenden kann Bitten Sie den Nao, eine Wischbewegung nach rechts auszuführen, und lassen Sie meine Anwendung diese Geste identifizieren. Der Nao kann meinen Befehl leicht identifizieren und eine Geste machen. Das Problem ist jedoch, wenn ich das Nao vor den Kinect-Sensor stelle, verfolgt der Kinect es nicht.
Was ich wissen möchte ist, gibt es einige Grundlagen hinter Kinects Bewegungsverfolgung des menschlichen Körpers, die im Wesentlichen fehlschlagen, wenn ein Roboter anstelle eines Menschen davor platziert wird?
PS: Ich habe den Nao im richtigen Abstand zum Sensor gehalten. Ich habe auch überprüft, ob sich der gesamte Roboter im Sichtfeld des Sensors befindet.
BEARBEITEN: Dies wurde von mir auf stackoverflow und auf msdn veröffentlicht , um eine große Zielgruppe anzusprechen, da dieses Problem in der Vergangenheit von niemandem angetroffen wurde.
Antworten:
Sie sollten das von Microsoft veröffentlichte Papier über den tatsächlichen Algorithmus hinter der Verfolgung menschlicher Bewegungen lesen.
Echtzeit-Erkennung menschlicher Posen in Teilen aus einem einzigen Tiefenbild, Shotton et. al, http://research.microsoft.com/apps/pubs/default.aspx?id=145347
Es stützt sich auf große, gekennzeichnete Trainingsdaten des menschlichen Körpers. Aus diesem Grund kann der Nao nicht sofort mit derselben Methode verfolgt werden. Um dies zu erreichen, müssten Sie den Algorithmus mit beschrifteten Daten aus dem Nao in verschiedenen Posen neu trainieren.
quelle