Wenn Sie sagen, dass der "Informationsgehalt gleich bleiben kann", meinen Sie dann die Informationen im Gesamtsignal oder die Informationen des gewünschten Signals? Hoffentlich beantwortet dies beide Fälle. Ich kenne die Shannon-Entropie viel besser als Kolmogorov, also werde ich sie verwenden, aber hoffentlich wird die Logik übersetzt.
Angenommen, ist Ihr Gesamtsignal ( X ), das sich aus der Summe Ihres gewünschten Signals S und Ihrer Rauschkomponente N zusammensetzt . Nennen wir die Entropie H . Wie Sie sagten, erhöht Rauschen die Entropie eines Systems, indem es dessen Komplexität erhöht. Dies ist jedoch nicht unbedingt darauf zurückzuführen, dass wir unsicherer über den Informationsgehalt des Signals sind, sondern auch darauf, dass das Signal insgesamt unsicherer ist. Wenn das SNR misst, wie sicher wir sind, von wasX=S+NXSNH ist, dannmisst H ( X ) , wie gut wir zukünftige Zustände von X vorhersagen könnenSH(X)Xbasierend auf dem aktuellen Zustand von X . Bei der Entropie geht es darum, wie komplex das gesamte Signal ist, unabhängig von der Zusammensetzung von Rauschen und Nicht-Rauschen.
Wenn Sie das SNR erhöhen, indem Sie das Rauschen entfernen ( dämpfen ), verringern Sie die Komplexität des Gesamtsignals X und damit dessen Entropie. Sie haben keine Informationen durch von losen S , nur (vermutlich bedeutungslos) Informationen durch N . Wenn N zufälliges Rauschen ist, enthält es offensichtlich keine aussagekräftigen Informationen, aber es sind bestimmte Informationen erforderlich, um N zu beschreibenNXSNNN den Zustand von , der durch die Anzahl der Zustände, in denen N sein kann, und die Wahrscheinlichkeit, dass er vorliegt, bestimmt wird jeder dieser Staaten. Das ist die Entropie.
Wir können zwei Gaußsche Verteilungen mit unterschiedlichen Varianzen betrachten, von denen eine eine Varianz von und die andere eine Varianz von 100 hat . Gerade in der Gleichung für eine Gaußsche Verteilung suchen, sehen wir , dass die V a r = 100 Verteilung eine maximale Wahrscheinlichkeit hat , die nur 11100Var=100 th den Wert derveinr=1distr Wahrscheinlichkeit. Umgekehrt bedeutet dies, dass die Wahrscheinlichkeit größer ist, dassVar=100distr andere Werte als den Mittelwert annimmt, oder dass sicherer ist, dass dieVerteilung vonVar=1Werte nahe dem Mittelwert annimmt. So ist dieVar=1Verteilung hat eine geringere Entropie als dieVar=100Verteilung.110var=1Var=100Var=1Va r = 1Vein r = 100
Wir haben festgestellt, dass eine höhere Varianz eine höhere Entropie impliziert. Mit Blick auf die Fehlerausbreitung, ist es auch wahr , daß (gleich für unabhängige X , Y ). Falls X = S + N und dann zur Entropie H , H ( X ) = H ( S + N ) HVa r ( X+ Y) > = Va r ( X) + Va r ( Y)XYX=S+NHH(X)=H(S+N) . Schon seitHeine Funktion der Varianz ist (indirekt), können wir die Dinge ein wenig zu sagen frisieren . Zur Vereinfachung der , sagen wir , S und N sind unabhängig, so H ( V a r [ X ] ) = H ( V a r [ S ] + V a ] )H(Var[X])=H(Var[S+N])SNH(Var[X])=H(Var[S]+Var[N]) . Verbessertes SNR bedeutet oftmals eine Dämpfung der Rauschleistung. Dieses neue Signal mit höherem SNR ist dann , fürk>1. Entropy dann wirdH(Var[X])=H(Var[S]+(1/k)2*Var[N]). kgrößer als1, so dassVar[N]wird abnehmenwenn N gedämpft wird. WennVaX=S+(1k)Nk>1H(Var[X])=H(Var[S]+(1/k)2∗Var[N])k1Var[N] nimmt ab, ebenso wie V a r [ S + N ] und daher V a r [ X ] , was zu einer Abnahme von H ( X ) führt .Var[N]Var[S+N]Var[X]H(X)
Nicht sehr präzise, sorry. Kurz gesagt, die Entropie von nimmt ab, wenn Sie das SNR erhöhen, aber Sie haben nichts mit den Informationen von S gemacht . Ich kann die Quellen momentan nicht finden, aber es gibt eine Methode, um SNR und gegenseitige Informationen (ein bivariates Maß, das der Entropie ähnelt) voneinander zu berechnen. Vielleicht ist die wichtigste Erkenntnis, dass SNR und Entropie nicht dasselbe messen.XS