Nehmen Sie eine Sinuskurve der Frequenz B. Innerhalb eines einzelnen Zyklus erreicht das Signal jeweils einmal seine maximale und minimale Amplitude. Mit anderen Worten, wenn das Signal im Bereich von 0 bis 1 liegt, messen wir die Werte von 0 und 1 einmal pro Zyklus.
Diese Maxima und Minima stellen die Informationen dar, auf die sich Lathi bezieht.
Da wir pro Zyklus ein Maximum und ein Minimum erhalten, haben wir zwei Informationen pro Zyklus. Und die maximale Informationsrate ist dann 2 * B.
Sampling kommt hier nicht ins Spiel, da wir einfache Detektoren verwenden, um zu bestimmen, ob Maximum oder Minimum erreicht wurden.
In einem Folgekommentar haben Sie gefragt:
Aber warum haben Sie nur ein sinusförmiges Signal betrachtet? Das Signal könnte genauso gut ein nicht periodisches sein, oder?
Ich habe eine Sinuskurve gewählt, weil es einfacher ist, Beobachtungen zu visualisieren und zu zeichnen. Ein nichtperiodisches Signal liefert die gleichen Ergebnisse, ist jedoch nicht so klar zu beobachten.
Bei einem analogen Signal verwenden wir die maximale und minimale Amplitude des Signals, da wir nicht bestimmen können, ob Zwischenwerte als gültige Signalpunkte gedacht sind oder ob es sich um zufällige Werte handelt, während wir auf einen anderen Wert fahren.
Wenn wir zum Beispiel eine Sinuskurve mit einer Amplitude von +/- 1 haben, werden wir den Nullpunkt zweimal überqueren. Der Empfänger hat nun die Möglichkeit zu wissen, ob diese Nullwerte sinnvoll oder nur zufällig waren.
Es lohnt sich wahrscheinlich, die Nyquist-Rate zu überprüfen , aus der diese Informationsrate stammt. Nyquist arbeitete in einer analogen Welt und versuchte herauszufinden, wie viele Informationen in ein Telegraphensignal gepackt werden konnten.
Schauen Sie sich von dort aus das Shannon-Hartley-Theorem an , das auf der Arbeit von Nyquist aufbaut und eine differenziertere Perspektive der Kanalkapazität bietet.