In Bezug auf den p-Wert s frage ich mich, warum 111 % und % der Goldstandard zu sein scheinen . Warum nicht andere Werte wie 6 % oder 10 %?555"statistical significance"666101010 Gibt es einen fundamentalen mathematischen Grund dafür oder handelt es sich nur um eine weit verbreitete Konvention?
Die Mathematik hat ihre berühmten Millenniumsprobleme (und historisch gesehen Hilberts 23 ), Fragen, die dazu beigetragen haben, die Richtung des Feldes zu bestimmen. Ich habe jedoch keine Ahnung, wie die Riemann-Hypothesen und die P-gegen-NP-Werte der Statistik aussehen würden. Also, was sind die übergreifenden offenen Fragen in der Statistik? Bearbeitet, um …
Firstregressionskoeffizientenschätzung β R sind die Werte , die die Minimierungβ^Rβ^R\hat{\beta}^R RSS+λ∑j=1pβ2j.RSS+λ∑j=1pβj2. \text{RSS} + \lambda \sum_{j=1}^p\beta_j^2. Meine Fragen sind: Wenn , dann sehen wir, dass sich der obige Ausdruck auf das übliche RSS reduziert. Was ist, wenn λ → ∞ ? Ich verstehe das Lehrbuch Erklärung des Verhaltens der Koeffizienten nicht.λ=0λ=0\lambda …
Die Formel zur Berechnung der Varianz hat im Nenner :(n−1)(n−1)(n-1) s2=∑Ni=1(xi−x¯)2n−1s2=∑i=1N(xi−x¯)2n−1s^2 = \frac{\sum_{i=1}^N (x_i - \bar{x})^2}{n-1} Ich habe mich immer gefragt, warum. Das Lesen und Anschauen einiger guter Videos über das "Warum" von scheint jedoch ein guter unverzerrter Schätzer der Populationsvarianz zu sein. Während die Populationsvarianz unterschätzt und überschätzt.n ( …
Ich bin dabei, die normale Standardtabelle in meiner Einführungsstatistikklasse einzuführen, und das hat mich gefragt: Wer hat die erste normale Standardtabelle erstellt? Wie haben sie es gemacht, bevor Computer kamen? Ich schaudere, wenn ich an jemanden denke, der tausend Riemann-Summen von Hand berechnet.
Die Welt der Statistik war geteilt zwischen Frequentisten und Bayesianern. In diesen Tagen scheint es, dass jeder ein bisschen von beidem tut. Wie kann das sein? Wenn die unterschiedlichen Ansätze für unterschiedliche Probleme geeignet sind, warum haben die Gründerväter der Statistik dies nicht gesehen? Oder haben die Frequentisten die Debatte …
Es gibt eine bestimmte Denkrichtung, nach der der am weitesten verbreitete Ansatz für statistische Tests ein "Hybrid" zwischen zwei Ansätzen ist: dem von Fisher und dem von Neyman-Pearson; Diese beiden Ansätze seien "inkompatibel", und daher sei der resultierende "Hybrid" ein "inkohärenter Mischmasch". Ich werde im Folgenden eine Bibliographie und einige …
Ich erinnere mich noch an das Papier Annals of Statistics on Boosting von Friedman-Hastie-Tibshirani und an die Kommentare anderer Autoren (einschließlich Freund und Schapire) zu denselben Themen. Damals galt Boosting in vielerlei Hinsicht als Durchbruch: rechnerisch machbar, eine Ensemblemethode mit hervorragender und dennoch mysteriöser Performance. Etwa zur gleichen Zeit wurde …
Für eine unimodale Verteilung, die mäßig verzerrt ist, haben wir die folgende empirische Beziehung zwischen Mittelwert, Median und Modus: Wie war diese Beziehung? abgeleitet?(Mean - Mode)∼3(Mean - Median)(Mean - Mode)∼3(Mean - Median) \text{(Mean - Mode)}\sim 3\,\text{(Mean - Median)} Hat Karl Pearson Tausende dieser Beziehungen geplant, bevor er diese Schlussfolgerung gezogen …
Ich versuche die Geschichte des Gradientenabstiegs und des stochastischen Gradientenabstiegs zu verstehen . Gradientenabfallsaktualisierung wurde erfunden Cauchy in 1847. Méthode Générale pour la résolution des Systèmes d'GLEICHUNGEN simultanées . S. 536–538 Weitere Informationen finden Sie hier . Seitdem haben sich Gradientenabstiegsmethoden weiterentwickelt und ich bin mit ihrer Geschichte nicht vertraut. …
Dies ist wahrscheinlich eine Amateurfrage, aber ich bin daran interessiert, wie die Wissenschaftler auf die Form der Normalverteilungswahrscheinlichkeitsdichtefunktion gekommen sind. Was mich im Grunde stört, ist, dass es für jemanden vielleicht intuitiver ist, wenn die Wahrscheinlichkeitsfunktion normalverteilter Daten eher die Form eines gleichschenkligen Dreiecks als eine Glockenkurve hat, und wie …
Ich habe mich nur gefragt, warum Regressionsprobleme "Regressionsprobleme" genannt werden. Was ist die Geschichte hinter dem Namen? Eine Definition für Regression: "Rückfall in einen weniger perfekten oder entwickelten Zustand."
Berichten zufolge wird das CERN morgen bekannt geben, dass das Higgs-Boson experimentell mit 5- Beweisen nachgewiesen wurde. In diesem Artikel heißt es:σσ\sigma 5 entspricht einer Wahrscheinlichkeit von 99,99994%, dass die Daten, die die CMS- und ATLAS-Detektoren sehen, nicht nur zufälliges Rauschen sind - und einer Wahrscheinlichkeit von 0,00006%, dass sie …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.