Als «it.information-theory» getaggte Fragen

Fragen in der Informationstheorie


2
Kanalcodierungsergebnisse unter Verwendung der Kolmogorov-Komplexität
Normalerweise wird die Shannon-Entropie verwendet, um die Ergebnisse der Kanalcodierung zu beweisen. Auch für die Trennung von Quellkanälen wird die Shannon-Entropie verwendet. Hat es eine Studie gegeben, um die Komplexität von Kolmogorov für diese Ergebnisse zu nutzen (oder zumindest den Quellcodierungsteil in den Quellkanaltrennungsergebnissen zu ersetzen), da Shannon (global) und …

1
Unterscheidung zwischen
Gegeben ist ein Quantenzustand , der gleichmäßig zufällig aus einer Menge von N gemischten Zuständen ρ 1 ausgewählt wird . . . ρ N , wie hoch ist die maximale durchschnittliche Wahrscheinlichkeit, A korrekt zu identifizieren ?ρAρA\rho_ANNNρ1...ρNρ1...ρN\rho_1 ... \rho_NAAA Dieses Problem kann in ein Zwei-Zustands-Unterscheidbarkeitsproblem umgewandelt werden, indem das Problem …


4
Beziehung zwischen Rechenkomplexität und Information
Ich arbeite in einem rechnergestützten neurowissenschaftlichen Labor, das die gegenseitige Information zwischen Paaren oder Gruppen von Neuronen quantifiziert. Vor kurzem verlagerte der Chef seinen Fokus auf die Messung der "Komplexität der neuronalen Dynamik". Bei der Verfolgung dieser Forschungsrichtung scheinen einige Leute in meiner Gruppe "komplex" mit "hat eine hohe Entropie" …


2
Eine Umkehrung zu Fanos Ungleichheit?
Die Ungleichung von Fano kann in vielen Formen angegeben werden, und eine besonders nützliche ist (mit einer geringfügigen Änderung) Oded Regev zu verdanken : Sei eine Zufallsvariable und sei wobei ein zufälliger Prozess ist. Angenommen, es gibt eine Prozedur , bei der mit der Wahrscheinlichkeit rekonstruieren kann . Dann ist …


1
Bestimmen Sie die Mindestanzahl der Münzwägungen
In der Arbeit Zu zwei Problemen der Informationstheorie geben Erdõs und Rényi Untergrenzen für die Mindestanzahl von Wägungen an, die zur Bestimmung der Anzahl falscher Münzen in einem Satz von Münzen erforderlich sind .nnn Formeller: Die falschen Münzen haben ein geringeres Gewicht als die richtigen Münzen; Die Gewichte und b …

4
Umfragen zur Netzwerkcodierung
Ich möchte etwas über Network Coding lernen: http://en.wikipedia.org/wiki/Network_coding Kennen Sie eine gute Umfrage (z. B. aus IEEE-Umfragen und -Tutorials) zu den oben genannten Themen? Ich habe einige Universitätskurse bei Google gefunden, aber ich hätte gerne Empfehlungen von Leuten, die bereits eine gute Quelle gelesen haben und kennen. Danke Vasilis

1
Lovasz-Theta-Funktion und reguläre Graphen (insbesondere ungerade Zyklen) - Verbindungen zur Spektraltheorie
Der Beitrag bezieht sich auf: /mathpro/59631/lovasz-theta-function-and-independence-number-of-product-of-simple-odd-cycles Wie weit ist der Lovasz von der Null-Fehler-Kapazität regulärer Graphen entfernt? Gibt es Beispiele, bei denen bekannt ist, dass die Lovasz-Grenze nicht der Null-Fehler-Kapazität eines regulären Graphen entspricht? (Dies wurde unten von Oleksandr Bondarenko beantwortet.) Ist insbesondere eine strikte Ungleichung für ungerade Zyklen von …

3
Gibt es eine Verallgemeinerung der Informationstheorie auf polynomiell erkennbare Informationen?
Ich entschuldige mich, das ist eine "weiche" Frage. Die Informationstheorie hat kein Konzept der rechnerischen Komplexität. Beispielsweise enthält eine Instanz von SAT oder eine Instanz von SAT plus ein Bit, das die Erfüllbarkeit anzeigt, dieselbe Informationsmenge. Gibt es eine Möglichkeit, das Konzept des "polynomiell erkennbaren" zu formalisieren? Ein solches Framework …


2
Ereignisse mit hoher Wahrscheinlichkeit ohne Koordinaten mit niedriger Wahrscheinlichkeit
XXXΣnΣn\Sigma^nΣΣ\SigmaH.( X.) ≥ ( n - δ) ⋅ log| Σ |H(X)≥(n−δ)⋅log⁡|Σ|H(X) \ge (n- \delta)\cdot\log|\Sigma|δδ\deltaE⊆Supp(X)E⊆Supp(X)E \subseteq \rm{Supp}(X)XXXPr[X∈E]≥1−εPr[X∈E]≥1−ε\Pr[X \in E] \ge 1 - \varepsilonεε\varepsilon Wir sagen, dass ein Paar eine Koordinate mit niedriger Wahrscheinlichkeit von wenn . Wir sagen, dass ein String eine Koordinate mit niedriger Wahrscheinlichkeit von wenn eine Koordinate mit …

1
Die Entropie einer verrauschten Verteilung
Angenommen, wir haben eine Funktion so dass und ist eine Verteilung, dh . ∀ x ∈ Z n 2f: Z.n2→ R.f:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R}f≤x≤Z n 2 f(x)=1∀ x ∈ Z.n2f( x ) ∈ { 12n, 22n, … , 2n2n} ,∀x∈Z2nf(x)∈{12n,22n,…,2n2n},\forall x\in \mathbb{Z}_2^n \quad f(x) \in \left\{\frac{1}{2^n}, \frac{2}{2^n}, \ldots, \frac{2^n}{2^n} \right\},fff∑x∈Zn2f(x)=1∑x∈Z2nf(x)=1\sum_{x\in \mathbb{Z}_2^n} …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.