Die Wahrscheinlichkeit, dass ein Ereignis A eintritt, wenn bekannt ist, dass ein anderes Ereignis B eintritt oder eingetreten ist. Es wird üblicherweise mit P (A | B) bezeichnet.
Geschlossen . Diese Frage erfordert Details oder Klarheit . Derzeit werden keine Antworten akzeptiert. Möchten Sie diese Frage verbessern? Fügen Sie Details hinzu und klären Sie das Problem, indem Sie diesen Beitrag bearbeiten . Geschlossen vor 2 Jahren . Ich lese Luce (1959) . Dann fand ich diese Aussage: Wenn …
Nehmen wir an, ich mache 10.000 Münzwürfe. Ich würde gerne wissen, wie wahrscheinlich es ist, wie viele Flips nötig sind, um 4 oder mehr aufeinanderfolgende Köpfe hintereinander zu erhalten. Die Zählung würde wie folgt funktionieren: Sie würden eine aufeinanderfolgende Runde von Flips als nur Köpfe (4 Köpfe oder mehr) zählen. …
Ich würde gerne wissen, wie man Diagramme mit bedingter Dichte richtig interpretiert. Ich habe zwei unten eingefügt, die ich in R mit erstellt habe cdplot. Ist zum Beispiel die Wahrscheinlichkeit, dass das Ergebnis gleich 1 ist, wenn Var 1 150 ist, ungefähr 80%? Der dunkelgraue Bereich ist derjenige, der die …
Beim Trainieren eines parametrisierten Modells (z. B. zur Maximierung der Wahrscheinlichkeit) über einen stochastischen Gradientenabstieg in einem Datensatz wird üblicherweise angenommen, dass die Trainingsmuster aus der Trainingsdatenverteilung entnommen werden. Wenn das Ziel darin besteht, eine gemeinsame Verteilung zu modellieren , sollte jede Trainingsprobe aus dieser Verteilung gezogen werden.P(X,Y)P(X,Y)P(X,Y)(xi,yi)(xi,yi)(x_i,y_i) Wenn das …
Wenn es jemals einen Fall gab, in dem dies klar wurde, dann mit dem Monty Hall-Problem. Sogar der große Paul Erdos ließ sich von diesem Problem täuschen. Meine Frage, die möglicherweise schwer zu beantworten ist, ist die Wahrscheinlichkeit, dass wir einer Antwort so sicher sein können, dass wir ein intuitives …
Angenommen, und Y sind bivariate Normalen mit dem Mittelwert μ = ( μ 1 , μ 2 ) und der Kovarianz Σ = [ σ 11 σ 12 σ 12 σ 22 ] . Was ist die Wahrscheinlichkeit Pr ( X < Y | min ( X , Y ) …
Ich frage mich, ob bedingte Wahrscheinlichkeiten nur im Bayesianismus vorkommen oder ob sie eher ein allgemeines Konzept sind, das von mehreren Denkschulen unter Statistikern / Wahrscheinlichkeitsleuten geteilt wird. Ich gehe davon aus, dass dies der Fall ist, da ich davon ausgehe, dass niemand Dies ist logisch, daher denke ich, dass …
Lassen Sie mich zunächst einmal anerkennen, dass ich mich in Statistik und Mathematik nicht so gut auskenne, wie ich es gerne wäre. Einige könnten sagen, dass sie gerade genug Wissen haben, um gefährlich zu sein. : DI entschuldige mich, wenn ich die Terminologie nicht richtig verwende. Ich versuche, die Wahrscheinlichkeiten …
Ich versuche , eine klarere Intuition zu bekommen hinter: „Wenn macht B wahrscheinlicher , dann B macht einen eher“ , dhEINEINAB.B.BB.B.BEINEINA Lassen n ( S.)n(S.)n(S) die Größe des Raumes bezeichnet , in der EINEINA und B.B.B sind, dann Anspruch: P.( B | A ) > P.( B )P.(B.|EIN)>P.(B.)P(B|A)>P(B) also n …
Angenommen, wir möchten einige Erwartungen berechnen: EYEX|Y[f(X,Y)]EYEX|Y[f(X,Y)]E_YE_{X|Y}[f(X,Y)] Angenommen, wir möchten dies mithilfe der Monte-Carlo-Simulation approximieren. EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)EYEX|Y[f(X,Y)]≈1RS∑r=1R∑s=1Sf(xr,s,yr)E_YE_{X|Y}[f(X,Y)] \approx \frac1{RS}\sum_{r=1}^R\sum_{s=1}^Sf(x^{r,s},y^r) ABER nehmen wir an, es ist teuer, Proben aus beiden Verteilungen zu ziehen, so dass wir es uns nur leisten können, eine feste Zahl . KKK Wie sollen wir zuordnen ? Beispiele …
Wenn , ist die bedingte Verteilung. von ist . hat eine marginale Verteilung. von Poisson ( ) ist eine positive Konstante.N=nN=nN = nYYYχ2(2n)χ2(2n)\chi ^2(2n)NNNθθ\thetaθθ\theta Zeigen , dass, als , in der Verteilung.( Y - E ( Y ) ) / √θ→∞θ→∞\theta \rightarrow \infty (Y−E(Y))/Var(Y)−−−−−−√→N(0,1) (Y−E(Y))/Var(Y)→N(0,1)\space \space (Y - E(Y))/ \sqrt{\operatorname{Var}(Y)} …
In der Originalarbeit von pLSA zeichnet der Autor Thomas Hoffman eine Parallele zwischen pLSA- und LSA-Datenstrukturen, die ich mit Ihnen diskutieren möchte. Hintergrund: Nehmen wir an, wir haben eine Sammlung von Dokumenten und ein Vokabular von BegriffenNNND={d1,d2,....,dN}D={d1,d2,....,dN}D = \lbrace d_1, d_2, ...., d_N \rbraceMMMΩ={ω1,ω2,...,ωM}Ω={ω1,ω2,...,ωM}\Omega = \lbrace \omega_1, \omega_2, ..., \omega_M …
Angenommen, ich habe eine Stichprobe von Häufigkeiten von 4 möglichen Ereignissen: Event1 - 5 E2 - 1 E3 - 0 E4 - 12 und ich habe die erwarteten Wahrscheinlichkeiten, dass meine Ereignisse eintreten: p1 - 0.2 p2 - 0.1 p3 - 0.1 p4 - 0.6 Mit der Summe der beobachteten …
Nach dem Gesetz der Gesamtvarianz ist Var(X)=E(Var(X∣Y))+Var(E(X∣Y))Var(X)=E(Var(X∣Y))+Var(E(X∣Y))\operatorname{Var}(X)=\operatorname{E}(\operatorname{Var}(X\mid Y)) + \operatorname{Var}(\operatorname{E}(X\mid Y)) Wenn ich es beweisen will, schreibe ich Var(X)=E(X−EX)2=E{E[(X−EX)2∣Y]}=E(Var(X∣Y))Var(X)=E(X−EX)2=E{E[(X−EX)2∣Y]}=E(Var(X∣Y)) \begin{equation} \begin{aligned} \operatorname{Var}(X) &= \operatorname{E}(X - \operatorname{E}X)^2 \\ &= \operatorname{E}\left\{\operatorname{E}\left[(X - \operatorname{E}X)^2\mid Y\right]\right\} \\ &= \operatorname{E}(\operatorname{Var}(X\mid Y)) \end{aligned} \end{equation} Was stimmt damit nicht?
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.