Ich habe eine kalibrierte Kamera und habe die intrinsischen Parameter. Ich habe auch die extrinsischen Parameter relativ zu einem Punkt (dem Weltursprung) auf einer planaren Oberfläche in der realen Welt. Diesen Punkt habe ich als Ursprung in der realen Welt Koordinaten [0,0,0] mit einer Normalen von [0,0,1] gesetzt.
Aus diesen extrinsischen Parametern kann ich hier die Kameraposition und -rotation in den 3D-Koordinaten der Weltebene ermitteln: http://en.wikipedia.org/wiki/Camera_resectioning
Jetzt habe ich einen zweiten Punkt, an dem ich die Bildkoordinaten für [x, y] extrahiert habe. Wie erhalte ich jetzt die 3D-Position dieses Punktes im Weltkoordinatensystem?
Ich denke, die Intuition hier ist, dass ich einen Strahl verfolgen muss, der vom optischen Zentrum der Kamera (für die ich jetzt die 3D-Position wie oben beschrieben habe) durch die Bildebene [x, y] der Kamera und dann geht durch meine reale Ebene, die ich oben definiert habe.
Jetzt kann ich einen Weltkoordinaten-3D-Strahl mit einer Ebene schneiden, wie ich sie normal kenne, und auf diese Ebene zeigen. Was ich nicht verstehe, ist, wie ich die 3D-Position und -Richtung herausfinde, wenn sie die Bildebene durch ein Pixel verlässt. Es ist die Transformation durch verschiedene Koordinatensysteme, die mich verwirrt.