Endlicher ter Moment für einen Zufallsvektor


9

Wenn , wo die Unterstützung von ist . Also ist . Dann nehme ich an, hat endliche Momente. Wenn , weiß ich, dass dies wobei die zugehörige Dichte von . Was die mathematische Äquivalent davon hat endliche Momente , wenn ?XFXRpX=(X1,X2,,Xp)Xkp=1

Rxkf(x)dx<,
f(x)FXkp>1

In diesem Link auf Seite 2 definieren die Autoren den ten Moment als wobei \ | \ cdot \ | ist die euklidische Norm.k

EXk=Xkf(x)dx,

Die Antwort von Glen_b hier legt nahe, dass der k te Moment

x1kx2kxpkf(x)dx.

Bedeutet die Annahme, dass einer endlich ist, dass der andere endlich ist?


Haben Sie gesehen, dass diese Sprache irgendwo für p>1 ? Im Wesentlichen für p>1 die Momente Tensoren kth Ordnung. Für k=1 Sie also einen mittleren Vektor, für k=2 Sie eine (Co-) Varianzmatrix , für k=3 Sie einen " 3rd " -Tensor 3_ {rd} Ordnung und so weiter. (Angenommene Momente über den Mittelwert für k>1 )
GeoMatt22

@ GeoMatt22 Das ist richtig. Ja, ich habe die verwendete Sprache gesehen. Zum Beispiel sprechen sie hier über endliche Momente eines Zufallsvektors. 2+δ
Greenparker

Vielleicht wäre die Bedeutung, dass alle Einträge des Momententensors endlich sind?
GeoMatt22

@ Greenparker könnten Sie diese Passage im Text zitieren? Kann es nicht finden.
Ekvall

@ Student001 Ups sorry, falscher Link. Hier ist der richtige Link. Schauen Sie sich die Aussage von Satz 4, Seite 6 an.
Greenparker

Antworten:


5

Die Antwort ist negativ, aber das Problem kann behoben werden.

Um zu sehen, was schief geht, lassen Sie eine Student t-Verteilung mit zwei Freiheitsgraden haben. Seine hervorstechenden Eigenschaften sind, dass endlich ist, aber . Betrachten Sie die bivariate Verteilung von . Sei sein Verteilungselement (das singulär ist: es wird nur auf der Diagonale ). Entlang der Diagonale ist , woherE ( | X | ) E ( | X | 2 ) = ( X , X ) f ( x , y ) d x d y x = y | | ( x , y ) | | = | x | XE(|X|)E(|X|2)=(X,X)f(x,y)dxdyx=y||(x,y)||=|x|2

E(||(X,X)||1)=E(2|X|)<

wohingegen

x1y1f(x,y)dxdy=x2f(x,x)dx=.

Analoge Berechnungen in Dimensionen sollten , dassp

|x1|k|x2|k|xp|kf(x1,,xp)dx1dxp

ist wirklich ein Moment der Ordnung , nicht . Weitere Informationen zu multivariaten Momenten finden Sie unter Sei ein Zufallsvektor. Werden te Momente von berücksichtigt? .pkkYkY


Um herauszufinden, welche Beziehungen zwischen den multivariaten Momenten und den Momenten der Norm bestehen sollten, benötigen wir zwei Ungleichungen. Sei ein beliebiger dimensionaler Vektor und sei positive Zahlen. Schreiben Sie für ihre Summe (was für alle impliziert ). Sei eine beliebige positive Zahl (in der Anwendung ist für die euklidische Norm, aber es stellt sich heraus, dass der Wert nichts Besonderes ist ). Schreiben Sie wie üblichx=(x1,,xp)pk1,k2,,kpk=k1+k2+kpki/k1iq>0q=22

||x||q=(i|xi|q)1/q.

Wenden wir zunächst die AM-GM-Ungleichung auf die nicht negativen Zahlen mit den Gewichten . Dies besagt, dass das gewichtete geometrische Mittel das gewichtete arithmetische Mittel nicht überschreiten kann:|xi|qki

(i(|xi|q)ki)1/k1kiki|xi|q.

Überschätzen Sie die rechte Seite, indem Sie jedes durch ersetzen und die Potenz beider Seiten nutzen:ki/k1k/q

(1)i|xi|ki=((i(|xi|q)ki)1/k)k/q(i|xi|q)k/q=||x||qk.

Überschätzen wir nun indem wir jeden Term durch den größten unter ihnen ersetzen , :||x||q|xi|qmax(|xi|q)=max(|xi|)q

||x||q(imax(|xi|q))1/q=(pmax(|xi|)q)1/q=p1/qmax(|xi|).

Wenn man Potenzen nimmt, ergibt sichkth

(2)||x||qkpk/qmax(|xi|k)pk/qi|xi|k.

Schreiben Sie als Notation

μ(k1,k2,,kp)=|x1|k1|x2|k2|xp|kpf(x)dx.

Dies ist der Moment der Ordnung(k1,k2,,kp) (und die Gesamtreihenfolge ). Durch die Integration gegen wird Ungleichung hergestelltkf(1)

(3)μ(k1,,kp)||x||qkf(x)dx=E(||X||qk)

und Ungleichung ergibt(2)

(4)E(||X||qk)pk/q(μ(k,0,,0)+μ(0,k,0,,0)++μ(0,,0,k)).

Seine rechte Seite ist bis zu einem konstanten Vielfachen die Summe der univariaten Momente. Zusammen und zeigenkth(3)(4)

  • Die Endlichkeit aller univariaten Momente impliziert die Endlichkeit von .kthE(||X||qk)

  • Die Endlichkeit von impliziert die Endlichkeit aller für die .E(||X||qk)μ(k1,,kp)k1++kp=k

Tatsächlich kombinieren diese beiden Schlussfolgerungen als Syllogismus zu zeigen , dass die Endlichkeit der univariaten Momente der Ordnung Endlichkeit aller multivariate Momente der Ordnung impliziert .kk

Somit,

Für alle ist der Moment der Norm genau dann endlich, wenn alle Momente der sind endlich.q>0kthLqE(||X||qk)k


Höhere Momente sollten als Tensoren und damit als Tensornormen betrachtet werden.
Henry.L

@Henry Könnten Sie näher erläutern, wie und warum dies in diesem Thread eine zutreffende Überlegung wäre?
whuber

Hallo, bitte sehen Sie meine Antwort unten.
Henry.L

2

Die Antwort von @whuber ist richtig und gut komponiert.

Ich habe diesen Thread nur geschrieben, um herauszufinden, warum ein solches Problem in der Sprache der Tensoren besser angegangen werden kann. Früher dachte ich, dass der Tensor-Standpunkt in der Statistik-Community weithin akzeptiert wird, jetzt weiß ich, dass dies nicht der Fall ist.

In den Seiten 46-47 von [McCullagh] erklärte er, wie wir Momente als Tensoren betrachten könnten. Ich erklärte es im Grunde nach seinen Worten. Sei ein Zufallsvektor, und wir können seine (zentralen) Momente diskutieren . Und wenn wir affine Transformationen (äquivalent können wir es in Matrixnotation schreiben in die Wahrscheinlichkeitsraum, so ist die sich ergebende (zentrale) Moment istX=(X1,Xp)κi,j=E(XiEXi)(XjEXj)Yr=ArX+brY=AX+b)Yr,Ys

κr,s=YrXiYsXjκi,j
durch Transformationsformel. Der Moment verhält sich also wie ein (0,1) kontravarianter Tensor. Wenn wir eine solche Tensoransicht akzeptieren, können die -Norm / die Momente einer Zufallsvariablen als Tensornorm behandelt werden. Tatsächlich bindet die Multi-Index-Tensornorm der höchsten Ordnung nicht notwendigerweise die Multi-Index-Tensornorm der niedrigeren Ordnung. Da der Tensor nun durch Differentialoperatoren erster Ordnung gegeben ist, kommt die Sobolev-Tensornorm natürlich ins Spiel, z. B. in Wavelets. Und es gibt viele Gegenbeispiele, dass die Norm höchster Ordnung in Sobolev-Besov-Räumen keine Normen niedrigerer Ordnung bindet. ( MO Post )Lp

Was den Grund betrifft, warum wir eine solche Ansicht vertreten sollten, ist die Geschichte viel länger, aber es folgt ein kurzer Kommentar.

Die klassische Referenz bei der Etablierung dieser Ansicht ist [McCullagh] und später verstreute Werke in der Literatur zum "maschinellen Lernen". Aber der Ursprung einer solchen Ansicht wird tatsächlich viel früher in den Werken des Bayesian [Jeffereys] verfolgt. Eine solche Ansicht hilft definitiv bei der Visualisierung und hat wahrscheinlich einige Forschungen zur statistischen Formanalyse wie die frühen Arbeiten von Mardia motiviert.

Referenz

[McCullagh] http://www.stat.uchicago.edu/~pmcc/tensorbook/ch1.pdf

[Jeffreys] Jeffreys, Harold. Kartesische Tensoren. Cambridge University Press, 1931.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.