Wir können dies zunächst so reduzieren, dass es nur von bestimmten Momenten univariater / bivariater abgeschnittener Normalverteilungen abhängt: Beachten Sie natürlich das
E[Z+]=[E[(Zi)+]]iCov(Z+)=[Cov((Zi)+,(Zj)+)]ij,
und weil wir koordinatweise Transformationen bestimmter Dimensionen einer Normalverteilung durchführen, nur wir Sie müssen sich um den Mittelwert und die Varianz einer 1d-zensierten Normalen und die Kovarianz zweier 1d-zensierter Normalen sorgen.
Wir werden einige Ergebnisse von verwenden
S. Rosenbaum (1961). Momente einer abgeschnittenen bivariaten Normalverteilung . JRSS B, Bd. 23, S. 405-408. ( jstor )
Rosenbaum betrachtet
und berücksichtigt das Abschneiden auf das Ereignis . V ={ ˜ X ≥ a X , ˜ Y ≥ a Y }
[X~Y~]∼N([00],[1ρρ1]),
V={X~≥aX,Y~≥aY}
Insbesondere werden wir die folgenden drei Ergebnisse verwenden, seine (1), (3) und (5). Definieren Sie zunächst Folgendes:
qx=ϕ(ax)qy=ϕ(ay)Qx=Φ(−ax)Qy=Φ(−ay)Rxy=Φ(ρax−ay1−ρ2−−−−−√)Ryx=Φ(ρay−ax1−ρ2−−−−−√)rxy=1−ρ2−−−−−√2π−−√ϕ(h2−2ρhk+k21−ρ2−−−−−−−−−−−−−√)
Nun zeigt Rosenbaum, dass:
Pr ( V.) E.[ X.~∣ V.]]Pr ( V.) E.[ X.~2∣ V.]]Pr ( V.) E.[ X.~Y.~∣ V.]]= qxR.x y+ ρ qyR.yx= Pr ( V.) + axqxR.x y+ ρ2einyqyR.yx+ ρ rx y= ρ Pr ( V.) + ρ axqxR.x y+ ρ ayqyR.yx+ rx y.(1)(3)(5)
Es ist nützlich, auch den Sonderfall von (1) und (3) mit , dh eine 1d-Kürzung:
Pr ( V ) E [ ˜ X ∣ V ]einy= - ∞
Pr ( V.) E.[ X.~∣ V.]]Pr ( V.) E.[ X.~2∣ V.]]= qx= Pr ( V.) = Q.x.(*)(**)
Wir wollen nun
[ X.Y.]]= [ μxμy] + [ σx00σy] [ X.~Y.~]]∼ N.( [ μX.μY.] , [ σ2xρ σxσyρ σxσyσ2y] )= N.( μ , Σ ) .
Wir werden
sind die Werte von und wenn , .
einx= - μxσxeiny= - μyσy,
X.~Y.~X=0Y=0
Mit (*) erhalten wir nun
und die Verwendung von (*) und (**) ergibt
E[X+]=Pr(X+>0)E[X∣X>0]+Pr(X+=0)0=Pr(X>0)(μx+σxE[X~∣X~≥ax])=Qxμx+qxσx,
E[X2+]=Pr(X+>0)E[X2∣X>0]+Pr(X+=0)0=Pr(X~≥ax)E[(μx+σxX~)2∣X~≥ax]=Pr(X~≥ax)E[μ2x+μxσxX~+σ2xX~2∣X~≥ax]=Qxμ2x+qxμxσx+Qxσ2x
so dass
Var[X+]=E[X2+]−E[X+]2=Qxμ2x+qxμxσx+Qxσ2x−Q2xμ2x−q2xσ2x−2qxQxμxσx=Qx(1−Qx)μ2x+(1−2Qx)qxμxσx+(Qx−q2x)σ2x.
Um , benötigen wir
Cov(X+,Y+)
E[X+Y+]=Pr(V)E[XY∣V]+Pr(¬V)0=Pr(V)E[(μx+σxX~)(μy+σyY~)∣V]=μxμyPr(V)+μyσxPr(V)E[X~∣V]+μxσyPr(V)E[Y~∣V]+σxσyPr(V)E[X~Y~∣V]=μxμyPr(V)+μyσx(qxRxy+ρqyRyx)+μxσy(ρqxRxy+qyRyx)+σxσy(ρPr(V)−ρμxqxRxy/σx−ρμyqyRyx/σy+rxy)=(μxμy+σxσyρ)Pr(V)+(μyσx+μxσyρ−ρμxσy)qxRxy+(μyσxρ+μxσy−ρμyσx)qyRyx+σxσyrxy=(μxμy+Σxy)Pr(V)+μyσxqxRxy+μxσyqyRyx+σxσyrxy,
und dann subtrahiert man so erhält man
E[X+]E[Y+]Cov(X+,Y+)=(μxμy+Σxy)Pr(V)+μyσxqxRxy+μxσyqyRyx+σxσyrxy−(Qxμx+qxσx)(Qyμy+qyσy).
Hier ist ein Python-Code, um die Momente zu berechnen:
import numpy as np
from scipy import stats
def relu_mvn_mean_cov(mu, Sigma):
mu = np.asarray(mu, dtype=float)
Sigma = np.asarray(Sigma, dtype=float)
d, = mu.shape
assert Sigma.shape == (d, d)
x = (slice(None), np.newaxis)
y = (np.newaxis, slice(None))
sigma2s = np.diagonal(Sigma)
sigmas = np.sqrt(sigma2s)
rhos = Sigma / sigmas[x] / sigmas[y]
prob = np.empty((d, d)) # prob[i, j] = Pr(X_i > 0, X_j > 0)
zero = np.zeros(d)
for i in range(d):
prob[i, i] = np.nan
for j in range(i + 1, d):
# Pr(X > 0) = Pr(-X < 0); X ~ N(mu, S) => -X ~ N(-mu, S)
s = [i, j]
prob[i, j] = prob[j, i] = stats.multivariate_normal.cdf(
zero[s], mean=-mu[s], cov=Sigma[np.ix_(s, s)])
mu_sigs = mu / sigmas
Q = stats.norm.cdf(mu_sigs)
q = stats.norm.pdf(mu_sigs)
mean = Q * mu + q * sigmas
# rho_cs is sqrt(1 - rhos**2); but don't calculate diagonal, because
# it'll just be zero and we're dividing by it (but not using result)
# use inf instead of nan; stats.norm.cdf doesn't like nan inputs
rho_cs = 1 - rhos**2
np.fill_diagonal(rho_cs, np.inf)
np.sqrt(rho_cs, out=rho_cs)
R = stats.norm.cdf((mu_sigs[y] - rhos * mu_sigs[x]) / rho_cs)
mu_sigs_sq = mu_sigs ** 2
r_num = mu_sigs_sq[x] + mu_sigs_sq[y] - 2 * rhos * mu_sigs[x] * mu_sigs[y]
np.fill_diagonal(r_num, 1) # don't want slightly negative numerator here
r = rho_cs / np.sqrt(2 * np.pi) * stats.norm.pdf(np.sqrt(r_num) / rho_cs)
bit = mu[y] * sigmas[x] * q[x] * R
cov = (
(mu[x] * mu[y] + Sigma) * prob
+ bit + bit.T
+ sigmas[x] * sigmas[y] * r
- mean[x] * mean[y])
cov[range(d), range(d)] = (
Q * (1 - Q) * mu**2 + (1 - 2 * Q) * q * mu * sigmas
+ (Q - q**2) * sigma2s)
return mean, cov
und ein Monte-Carlo-Test, dass es funktioniert:
np.random.seed(12)
d = 4
mu = np.random.randn(d)
L = np.random.randn(d, d)
Sigma = L.T.dot(L)
dist = stats.multivariate_normal(mu, Sigma)
mn, cov = relu_mvn_mean_cov(mu, Sigma)
samps = dist.rvs(10**7)
mn_est = samps.mean(axis=0)
cov_est = np.cov(samps, rowvar=False)
print(np.max(np.abs(mn - mn_est)), np.max(np.abs(cov - cov_est)))
Dies gibt an 0.000572145310512 0.00298692620286
, dass die behauptete Erwartung und Kovarianz mit den Monte-Carlo-Schätzungen übereinstimmen (basierend auf Stichproben).10,000,000