An Kameras angeschlossene Bildschirme unterscheiden sich erheblich von Fenstern oder Spiegeln. Wenn wir durch ein Fenster oder einen Spiegel schauen, können wir uns auf die Unendlichkeit konzentrieren und unseren Blickwinkel verschieben, um etwas anderes zu sehen. Bei einem Bildschirm mit Live-Kameraaufnahmen sehen wir das Sichtfeld von einem einzelnen Punkt (dem Kamerastandort) aus und konzentrieren uns auf den Bildschirm.
Wäre es möglich, einen Bildschirm + eine Kamera zu entwickeln, deren Verhalten einem Fenster oder einem Spiegel viel näher kommt? Ich denke, der Bildschirm und die Kamera müssten die gleiche Oberfläche haben. Beide wären richtungsempfindlich, und wenn das Kamerapixel auf der Kamera ein Photon mit der Frequenz aus Winkeln empfängt , würde der Bildschirm ein entsprechendes Photon mit der Frequenz \ nu von senden Position (S_i, S_j) zur Richtung (S_ \ phi, S_ \ theta) , wobei (S_ \ phi, S_ \ theta) aus (C_ \ phi, C_ \ theta) berechnet wird , die entweder fenster- oder spiegelartiges Verhalten nachahmt.
Ist ein solches Gerät theoretisch möglich? Wenn ja, wäre ein solches Gerät heute technisch machbar? Wenn ja, wurden ernsthafte Arbeiten an solchen Geräten durchgeführt? Wenn es heute theoretisch möglich, aber nicht machbar ist, was müsste entwickelt werden, bevor solche Geräte in Sicht sind?
Es sollte eine breite Palette von Anwendungen in den Bereichen Telepräsenz , Augmented Reality , Automobiltechnik und sicherlich vielen anderen Bereichen haben.