Es gibt einige Antworten, die auf ein korrektes digitales Signal im Vergleich zu einem analogen Signal hinweisen. Aber das beantwortet das Warum nicht? Ein paar der erwähnten Übersetzungsebenen, das ist auch so, eine normale A / D-Wandlung kann zu einem Verlust an Wiedergabetreue führen, aber Sie müssen dies messen, da es schwierig ist, die Unterschiede mit bloßem Auge zu erkennen. Ein billiger Umtausch und alle Wetten sind aus.
Warum ist digital besser als analog?
Ein analoges RGB-Signal (z. B. VGA) verwendet die Amplitude des Signals (0,7 Volt Spitze-Spitze bei VGA). Wie bei allen Signalen tritt Rauschen auf, das, wenn es groß genug ist, dazu führt, dass die Pegel falsch übersetzt werden.
Reflexionen im Kabel (Impedanzfehlanpassungen) sind tatsächlich der größte Nachteil eines analogen Videosignals. Dies führt zu zusätzlichen Störungen und wird bei längeren Kabeln (oder billigeren Kabeln) umso schlimmer, je höher die Auflösung des Videos ist, umso höher ist das Signal-Rausch-Verhältnis. Interessanterweise sollten Sie bei einem 800x600-Signal keinen Unterschied feststellen können, es sei denn, das VGA-Kabel ist zu lang.
Wie vermeidet ein digitales Signal diese Fallstricke? Gut für einen ist das Niveau nicht mehr relevant. Auch DVI-D / HDMI verwendet ein Differenzsignal sowie eine Fehlerkorrektur, um sicherzustellen, dass Einsen und Nullen korrekt übertragen werden. Ein digitales Signal wird zusätzlich aufbereitet, was für ein analoges Videosignal nicht sinnvoll ist.
Tut mir leid für die Seifenkisten-Jungs, aber das sind die Fakten.