Shannons Entropie ist das Negativ der Summe der Wahrscheinlichkeiten jedes Ergebnisses multipliziert mit dem Logarithmus der Wahrscheinlichkeiten für jedes Ergebnis. Welchen Zweck erfüllt der Logarithmus in dieser Gleichung? Eine intuitive oder visuelle Antwort (im Gegensatz zu einer zutiefst mathematischen Antwort) erhält Bonuspunkte!
Ich möchte die Entropie / Informationsdichte / Musterähnlichkeit einer zweidimensionalen binären Matrix messen. Lassen Sie mich zur Verdeutlichung einige Bilder zeigen: Diese Anzeige sollte eine ziemlich hohe Entropie haben: EIN) Dies sollte eine mittlere Entropie haben: B) Diese Bilder sollten schließlich alle eine Entropie nahe Null haben: C) D) E) …
Ich habe hier einige Fragen darüber gesehen, was es in Laienbegriffen bedeutet, aber diese sind zu Laien für meinen Zweck hier. Ich versuche mathematisch zu verstehen, was der AIC-Score bedeutet. Gleichzeitig möchte ich keinen strengen Beweis, der mich die wichtigeren Punkte nicht erkennen lässt. Wenn dies zum Beispiel ein Kalkül …
Ich lese über Entropie und kann mir nur schwer vorstellen, was es im kontinuierlichen Fall bedeutet. Die Wiki-Seite besagt Folgendes: Die Wahrscheinlichkeitsverteilung der Ereignisse bildet zusammen mit der Informationsmenge jedes Ereignisses eine Zufallsvariable, deren Erwartungswert die durchschnittliche Informationsmenge oder Entropie ist, die durch diese Verteilung erzeugt wird. Wenn ich also …
Ich weiß, dass Entropie das Maß für die Zufälligkeit eines Prozesses / einer Variablen ist und wie folgt definiert werden kann. für eine Zufallsvariable Menge : - . In dem Buch über Entropie und Informationstheorie von MacKay gibt er diese Aussage in Kapitel 2 wiederX∈X∈X \inAAAH(X)=∑xi∈A−p(xi)log(p(xi))H(X)=∑xi∈A−p(xi)log(p(xi))H(X)= \sum_{x_i \in A} -p(x_i) …
In dieser Arbeit argumentiert der talentierte Forscher Cosma Shalizi, dass man, um eine subjektive Bayes'sche Sichtweise vollständig zu akzeptieren, auch ein unphysisches Ergebnis akzeptieren muss, dass der Zeitpfeil (gegeben durch den Fluss der Entropie) tatsächlich rückwärts gehen sollte . Dies ist hauptsächlich ein Versuch, gegen die maximale Entropie / vollständig …
Sowohl die Kreuzentropie als auch die KL-Divergenz sind Werkzeuge zur Messung des Abstands zwischen zwei Wahrscheinlichkeitsverteilungen. Was ist der Unterschied? K L ( P | Q ) = ∑ x P ( x ) log P ( x )H.( P., Q ) = - ∑xP.( x ) logQ ( x …
Nach langem Durchforsten von Cross Validated fühle ich mich immer noch nicht näher daran, die KL-Divergenz außerhalb des Bereichs der Informationstheorie zu verstehen. Es ist ziemlich seltsam, wenn jemand mit einem mathematischen Hintergrund die Erklärung der Informationstheorie viel leichter versteht. Um mein Verständnis vor dem Hintergrund der Informationstheorie zu skizzieren: …
Ich habe das Prinzip der maximalen Entropie verwendet, um die Verwendung mehrerer Verteilungen in verschiedenen Umgebungen zu rechtfertigen. Ich muss jedoch noch eine statistische, im Gegensatz zur informationstheoretischen Interpretation der maximalen Entropie formulieren können. Mit anderen Worten, was bedeutet die Maximierung der Entropie für die statistischen Eigenschaften der Verteilung? Hat …
Ich bin in keiner Weise Statistiker (ich hatte einen Kurs in mathematischer Statistik, aber nichts anderes als das), und vor kurzem, als ich Informationstheorie und statistische Mechanik studierte, traf ich dieses Ding, das "Unsicherheitsmaß" / "Entropie" genannt wurde. Ich habe die Khinchin-Ableitung als Maß für die Unsicherheit gelesen und es …
Was ist die informations- / physikalisch-theoretisch korrekteste Methode, um die Entropie eines Bildes zu berechnen? Die Recheneffizienz ist mir momentan egal - ich möchte, dass sie theoretisch so korrekt wie möglich ist. Beginnen wir mit einem Graustufenbild. Eine intuitive Vorgehensweise ist das Bild als eine Tasche von Pixeln zu prüfen …
Bei der Definition gemeinsam typischer Mengen (in "Elemente der Informationstheorie", Kap. 7.6, S. 195) verwenden wir np(xn)=Π n i = 1 p(xi)- 1nLogp ( xn)-1nLogp(xn)-\frac{1}{n} \log{p(x^n)} als empirische Entropie einer Folge mit . Ich bin noch nie auf diese Terminologie gestoßen. Es ist nirgends explizit nach dem Inhaltsverzeichnis des Buches …
Ich suche nach einem Buch oder einer Online-Ressource, die verschiedene Arten von Entropie wie Sample Entropy und Shannon Entropy sowie deren Vor- und Nachteile erklärt. Kann mich jemand in die richtige Richtung weisen?
Angenommen, ich habe zwei Mengen und und eine gemeinsame Wahrscheinlichkeitsverteilung über diese Mengen . Lassen und die Randverteilungen über bezeichnen und jeweils.XXXYYYp(x,y)p(x,y)p(x,y)p(x)p(x)p(x)p(y)p(y)p(y)XXXYYY Die gegenseitige Information zwischen und ist definiert als: XXXYYYI(X;Y)=∑x,yp(x,y)⋅log(p(x,y)p(x)p(y))I(X;Y)=∑x,yp(x,y)⋅log(p(x,y)p(x)p(y))I(X; Y) = \sum_{x,y}p(x,y)\cdot\log\left(\frac{p(x,y)}{p(x)p(y)}\right) dh es ist der Durchschnittswert der punktweisen gegenseitigen Information pmi .(x,y)≡log(p(x,y)p(x)p(y))(x,y)≡log(p(x,y)p(x)p(y))(x,y) \equiv \log\left(\frac{p(x,y)}{p(x)p(y)}\right) Angenommen, ich kenne …
Ich würde gerne wissen, ob Breimans zufälliger Wald (zufälliger Wald in R randomForest-Paket) als Aufteilungskriterium (Kriterium für die Attributauswahl) Informationsgewinn oder Gini-Index verwendet. Ich habe versucht, es auf http://www.stat.berkeley.edu/~breiman/RandomForests/cc_home.htm und in der Dokumentation für das randomForest-Paket in R herauszufinden. Aber das einzige, was ich gefunden habe, ist, dass der Gini-Index …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.