Ich bin nicht sicher, ob dies zuvor versucht wurde, aber ich versuche, Kinect zu verwenden und Gesten des Nao-Roboters zu erkennen .
Ich habe eine Kinect-Anwendung erstellt, einen gestenbasierten Bildbetrachter , der Menschen gut erkennt (offensichtlich!). Ich wollte versuchen, (faul wie ich bin) zu prüfen, ob ich einen Befehl (z. B. Sprache) verwenden kann Bitten Sie den Nao, eine Wischbewegung nach rechts auszuführen, und lassen Sie meine Anwendung diese Geste identifizieren. Der Nao kann meinen Befehl leicht identifizieren und eine Geste machen. Das Problem ist jedoch, wenn ich das Nao vor den Kinect-Sensor stelle, verfolgt der Kinect es nicht.
Was ich wissen möchte ist, gibt es einige Grundlagen hinter Kinects Bewegungsverfolgung des menschlichen Körpers, die im Wesentlichen fehlschlagen, wenn ein Roboter anstelle eines Menschen davor platziert wird?
PS: Ich habe den Nao im richtigen Abstand zum Sensor gehalten. Ich habe auch überprüft, ob sich der gesamte Roboter im Sichtfeld des Sensors befindet.
BEARBEITEN: Dies wurde von mir auf stackoverflow und auf msdn veröffentlicht , um eine große Zielgruppe anzusprechen, da dieses Problem in der Vergangenheit von niemandem angetroffen wurde.