Als «information-theory» getaggte Fragen

2
Beziehung zwischen Entropie und SNR
Im Allgemeinen wird jede Form von Enropie als Unsicherheit oder Zufälligkeit definiert. In einer verrauschten Umgebung mit zunehmendem Rauschen glaube ich, dass die Entropie zunimmt, da wir unsicherer über den Informationsgehalt des gewünschten Signals sind. Welche Beziehung besteht zwischen Entropie und SNR? Mit zunehmendem Signal-Rausch-Verhältnis nimmt die Rauschleistung ab, was …

3
Kapazität des AWGN-Kanals
Ich bin verwirrt, wenn ich grundlegende Konzepte der Kommunikation über AWGN-Kanäle verstehe. Ich weiß, dass die Kapazität eines zeitdiskreten AWGN-Kanals ist: C.= 12Log2( 1 + S.N.)C=12log2⁡(1+SN)C=\frac{1}{2}\log_2\left(1+\frac{S}{N}\right) und es wird erreicht, wenn das Eingangssignal eine Gaußsche Verteilung hat. Aber was bedeutet es, dass das Eingangssignal Gaußsch ist? Bedeutet dies, dass die …

2
Was bedeutet gegenseitige Information über die numerische Berechnung hinaus?
Was bedeutet es physikalisch, abgesehen von der Rohgleichung zur Berechnung der gegenseitigen Information? Zum Beispiel: Aus der Informationstheorie wissen wir, dass Entropie das kleinste verlustfreie Komprimierungsschema ist, das wir für ein Alphabet mit einer bestimmten Wahrscheinlichkeitsverteilung verwenden können. Was würde das für die gegenseitige Information bedeuten? Hintergrund: Ich versuche, die …



1
Probleme im Zusammenhang mit Entropie
Ich bin seit langem mit der Verwirrung in Bezug auf Entropie konfrontiert und wäre verpflichtet, wenn die folgenden Fragen in weniger technischer Fachsprache beantwortet würden. Dem Link folgen Verschiedene Arten von Entropie werfen die folgenden Fragen auf Entropie - Es ist erwünscht, dass die Entropie des Systems maximiert wird. Das …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.