In anderen Zusammenhängen bedeutet orthogonal "im rechten Winkel" oder "senkrecht".
Was bedeutet Orthogonal im statistischen Kontext?
Vielen Dank für eventuelle Klarstellungen.
In anderen Zusammenhängen bedeutet orthogonal "im rechten Winkel" oder "senkrecht".
Was bedeutet Orthogonal im statistischen Kontext?
Vielen Dank für eventuelle Klarstellungen.
Antworten:
Dies bedeutet, dass sie [die Zufallsvariablen X, Y] voneinander 'unabhängig' sind. Unabhängige Zufallsvariablen werden oft als rechtwinklig zueinander betrachtet, wobei mit rechtwinklig gemeint ist, dass das innere Produkt der beiden 0 ist (eine äquivalente Bedingung aus der linearen Algebra).
Beispielsweise wird in der XY-Ebene gesagt, dass die X- und Y-Achse orthogonal sind, da, wenn sich der x-Wert eines gegebenen Punktes ändert, beispielsweise von (2,3) nach (5,3), sein y-Wert der gleiche bleibt (3). und umgekehrt. Daher sind die beiden Variablen "unabhängig".
Siehe auch die Wikipedia-Einträge für Unabhängigkeit und Orthogonalität
Ich kann keinen Kommentar abgeben, weil ich nicht genug Punkte habe. Deshalb bin ich gezwungen, meine Meinung als Antwort zu äußern. Bitte vergib mir. Von dem Wenigen, das ich weiß, bin ich mit der ausgewählten Antwort von @crazyjoe nicht einverstanden, weil Orthogonalität als definiert ist
Damit:
Wenn mit symmetrischem pdf sind sie abhängig, aber orthogonal.
Wenn aber pdf Null für negative Werte, dann sind sie abhängig, aber nicht orthogonal.
Orthogonalität impliziert daher keine Unabhängigkeit.
Wenn X und Y unabhängig sind, sind sie orthogonal. Das Gegenteil trifft jedoch nicht zu, wie das clevere Beispiel von user497804 zeigt. Die genauen Definitionen finden Sie unter
Orthogonal: Komplexwertige Zufallsvariablen und heißen orthogonal, wenn sie erfüllenC 2 c o v ( C 1 , C 2 ) = 0
(S. 376, Wahrscheinlichkeits- und Zufallsprozesse von Geoffrey Grimmett und David Stirzaker)
Unabhängig: Die Zufallsvariablen und sind genau dann unabhängig, wenn für alle
entspricht für kontinuierliche Zufallsvariablen der Forderung, dass
(Seite 99, Wahrscheinlichkeits- und Zufallsprozesse von Geoffrey Grimmett und David Stirzaker)
@Mien hat bereits eine Antwort geliefert und, wie @whuber anmerkt, orthogonale Mittel unkorreliert. Ich wünschte jedoch wirklich, die Leute würden einige Referenzen zur Verfügung stellen. Die folgenden Links sind möglicherweise hilfreich, da sie das Konzept der Korrelation aus geometrischer Sicht erläutern.
Eine NIST-Website (siehe unten) definiert orthogonal wie folgt: "Ein experimentelles Design ist orthogonal, wenn sich die Auswirkungen eines Faktors über die Auswirkungen der anderen Faktoren ausgleichen (Summe zu Null)."
Im statistischen Design verstehe ich orthogonal als "nicht begründet" oder "nicht voreingenommen". Dies ist wichtig, wenn Sie Ihr Experiment entwerfen und analysieren, um sicherzustellen, dass Sie verschiedene Faktoren / Behandlungen eindeutig identifizieren können. Wenn Ihr entworfenes Experiment nicht orthogonal ist, bedeutet dies, dass Sie die Auswirkungen verschiedener Behandlungen nicht vollständig voneinander trennen können. Daher müssen Sie ein Folgeexperiment durchführen, um den Effekt zu entschlüsseln. Dies würde als erweitertes Design oder vergleichendes Design bezeichnet.
Unabhängigkeit scheint eine schlechte Wortwahl zu sein, da sie in so vielen anderen Aspekten von Design und Analyse verwendet wird.
NIST Ref http://www.itl.nist.gov/div898/handbook/pri/section7/pri7.htm
Es ist sehr wahrscheinlich, dass sie "nicht verwandt" bedeuten, wenn sie "orthogonal" sagen. Wenn zwei Faktoren orthogonal sind (z. B. in der Faktorenanalyse), haben sie keine Beziehung, ihre Korrelation ist Null.
Laut http://terpconnect.umd.edu/~bmomen/BIOM621/LineardepCorrOrthogonal.pdf ist die lineare Unabhängigkeit eine notwendige Bedingung für Orthogonalität oder Unkorreliertheit. Es gibt jedoch feinere Unterschiede, insbesondere ist Orthogonalität nicht unkorreliert.
Ich habe eine ähnliche Frage gestellt: Welcher Zusammenhang besteht zwischen der Orthogonalität und der Erwartung des Produkts von Wohnmobilen? Ich wiederhole die Antwort hier. Obwohl Orthogonalität ein Konzept aus der Linearen Algebra ist und bedeutet, dass das Punktprodukt zweier Vektoren Null ist, wird der Begriff in der Statistik manchmal lose verwendet und bedeutet Nichtkorrelation. Wenn zwei Zufallsvektoren orthogonal sind, ist ihr zentrales Gegenstück nicht korreliert, da Orthogonalität (Punktprodukt Null) eine Nichtkorrelation der zentralisierten Zufallsvektoren impliziert (manchmal wird von Orthogonalität angenommen, dass das Kreuzmoment Null ist). Immer wenn wir zwei Zufallsvektoren , können wir sie immer um ihre Mittelwerte zentrieren , um ihre Erwartung auf Null zu bringen. Man nehme die Orthogonalität an (), dann ist die Korrelation der zentralisierten Zufallsvariablen
In der Ökonometrie bedeutet die Orthogonalitätsannahme, dass der erwartete Wert der Summe aller Fehler 0 ist. Alle Variablen eines Regressors sind orthogonal zu ihren aktuellen Fehlerausdrücken.
Mathematisch ist die Orthogonalitätsannahme .
Einfacher ausgedrückt bedeutet dies, dass ein Regressor "senkrecht" zum Fehlerterm ist.
Zwei oder mehr IVs sind nicht miteinander verbunden (unabhängig), haben aber beide einen Einfluss auf die DV. Jede IV trägt separat einen bestimmten Wert zum Ergebnis bei, während beide oder alle IVs in additiver Weise zur Vorhersage des Einkommens beitragen (orthogonal = nicht schneidender IV-Einfluss auf einen DV). IVs sind untereinander nicht korrelativ und normalerweise in einem rechten Winkel positioniert * siehe Venn-Diagramm.
Beispiel: Verhältnis von Motivation und Bildungsjahren zum Einkommen.
IV = Schuljahre IV = Motivation DV = Einkommen
Die zugehörigen Zufallsvariablen bedeuten, dass die Variablen X und Y eine beliebige Beziehung haben können. kann linear oder nichtlinear sein. Die Unabhängigkeit und die orthogonalen Eigenschaften sind gleich, wenn die beiden Variablen linear zusammenhängen.