Kernel-Dichteschätzer in 2D integrieren


12

Ich komme von dieser Frage, falls jemand der Spur folgen möchte.

Grundsätzlich habe ich einen Datensatz Ω bestehend aus N Objekten, an die an jedem Objekt eine bestimmte Anzahl von Messwerten angehängt ist (in diesem Fall zwei):

Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]

Ich brauche einen Weg , um die Wahrscheinlichkeit einen bestimmen neuen Objekt der Zugehörigkeit zu Ω so I in dieser Frage wurde geraten , eine Wahrscheinlichkeitsdichte zu erhalten fp[xp,yp]Ωf^ durch einen Kerndichteschätzer, die ich glaube , ich habe schon .

Da mein Ziel , die Wahrscheinlichkeit dieses neuen Objekts (zu erhalten , ist ) der Zugehörigkeit zu diesem 2D - Datensatz Ω , wurde ich gesagt , das PDF zu integrieren f über " Werte der Unterstützung der Dichte , für die ist kleiner als der, den Sie beobachtet haben ". Die "beobachtete" Dichte ist f in dem neuen Objekt ausgewertet p , das heißt: f ( x p , y p ) . Also muss ich die Gleichung lösen:p[xp,yp]Ωf^f^pf^(xp,yp)

x,y:f^(x,y)<f^(xp,yp)f^(x,y)dxdy

Das PDF meines 2D-Datensatzes (erhalten über das Modul stats.gaussian_kde von Python ) sieht folgendermaßen aus:

Bildbeschreibung hier eingeben

Dabei steht der rote Punkt für das neue Objekt , das über der PDF-Datei meines Datensatzes aufgezeichnet ist.p[xp,yp]

Die Frage ist also: Wie kann ich berechnen die obige Integral für die Grenzen , wenn die pdf sieht aus wie das?x,y:f^(x,y)<f^(xp,yp)


Hinzufügen

Ich habe einige Tests durchgeführt, um zu sehen, wie gut die in einem der Kommentare erwähnte Monte-Carlo-Methode funktioniert. Das habe ich bekommen:

Tabelle

Die Werte scheinen für Bereiche mit geringerer Dichte etwas stärker zu variieren, wobei beide Bandbreiten mehr oder weniger die gleiche Variation aufweisen. Die größte Variation in der Tabelle tritt für den Punkt (x, y) = (2.4, 1.5) auf, wenn der Wert von 2500 gegen 1000 von Silverman verglichen wird, was eine Differenz von 0.0126oder ergibt ~1.3%. In meinem Fall wäre dies weitgehend akzeptabel.

Edit : Mir ist gerade aufgefallen, dass Scotts Regel in 2 Dimensionen Silvermans gemäß der hier angegebenen Definition entspricht.


2
Ist Ihnen aufgefallen, dass Ihr Schätzer nicht unimodal ist, sondern dass die Empfehlung, die Sie ausdrücklich befolgen, nur für "unimodale" Verteilungen gilt? Das bedeutet nicht, dass Sie etwas falsch machen, aber es sollte einige harte Überlegungen hervorrufen, was die Antwort bedeuten könnte.
Whuber

Hallo @whuber, tatsächlich die Antwort auf diese Frage sagt , dass es „gut erzogen“ für unimodale Verteilungen, so dachte ich , dass es vielleicht könnte mit einigen Änderungen auf mein Problem umgehen. Bedeutet "gut benommen", dass es nur im statistischen Jargon funktioniert (ehrliche Frage)? Prost.
Gabriel

Mein Hauptanliegen ist, dass KDE empfindlich auf die Wahl der Bandbreite reagiert, und ich erwarte, dass Ihr Integral, insbesondere für Randbereiche wie den in der Abbildung gezeigten, sehr empfindlich auf die Wahl reagiert. (Die Berechnung selbst ist übrigens einfach, wenn Sie ein Rasterbild wie das folgende erstellt haben: Sie ist proportional zum Durchschnittswert im Bild zwischen Punkten, deren Wert kleiner als der des "Sonden" -Punkts ist.) Sie können sich nähern Dazu wird die Antwort für einen vollständigen Bereich von angemessenen Bandbreiten berechnet und geprüft, ob sie sich in diesem Bereich wesentlich ändert. Wenn nicht, geht es dir gut.
Whuber

f^

Wie viele Beobachtungen haben Sie in Ihrem Datensatz?
Hong Ooi

Antworten:


11

Ein einfacher Weg besteht darin, den Bereich der Integration zu rastern und eine diskrete Approximation an das Integral zu berechnen.

Es gibt einige Dinge zu beachten:

  1. Stellen Sie sicher, dass Sie mehr als die Ausdehnung der Punkte abdecken: Sie müssen alle Stellen einschließen, an denen die Schätzung der Kerneldichte nennenswerte Werte aufweist. Dies bedeutet, dass Sie die Ausdehnung der Punkte um das Drei- bis Vierfache der Kernelbandbreite erweitern müssen (für einen Gaußschen Kernel).

  2. Das Ergebnis hängt von der Auflösung des Rasters ab. Die Auflösung muss einen kleinen Bruchteil der Bandbreite ausmachen. Da die Berechnungszeit proportional zur Anzahl der Zellen im Raster ist, dauert es fast nicht länger, eine Reihe von Berechnungen mit einer gröberen Auflösung als der beabsichtigten durchzuführen: Überprüfen Sie, ob die Ergebnisse für die gröberen mit dem Ergebnis für das übereinstimmen feinste Auflösung. Ist dies nicht der Fall, ist möglicherweise eine feinere Auflösung erforderlich.

Hier ist eine Illustration für einen Datensatz von 256 Punkten:

Abbildung 1

Die Punkte werden als schwarze Punkte angezeigt, die zwei Kernel-Dichteschätzungen überlagert sind. Die sechs großen roten Punkte sind "Sonden", an denen der Algorithmus ausgewertet wird. Dies wurde für vier Bandbreiten (ein Standardwert zwischen 1,8 (vertikal) und 3 (horizontal), 1/2, 1 und 5 Einheiten) bei einer Auflösung von 1000 mal 1000 Zellen durchgeführt. Die folgende Streudiagramm-Matrix zeigt, wie stark die Ergebnisse von der Bandbreite dieser sechs Prüfpunkte abhängen, die einen weiten Bereich von Dichten abdecken:

Figur 2

Die Variation tritt aus zwei Gründen auf. Offensichtlich unterscheiden sich die Dichteschätzungen, was eine Form der Variation einführt. Noch wichtiger ist, dass die Unterschiede bei den Dichteschätzungen zu großen Unterschieden an jedem einzelnen Punkt ("Sondenpunkt") führen können. Die letztere Variation ist um die "Ränder" von Punkthaufen mittlerer Dichte am größten - genau an den Stellen, an denen diese Berechnung wahrscheinlich am häufigsten verwendet wird.

Dies zeigt, dass bei der Verwendung und Interpretation der Ergebnisse dieser Berechnungen große Vorsicht geboten ist, da sie für eine relativ willkürliche Entscheidung (die zu verwendende Bandbreite) so empfindlich sein können.


R-Code

Der Algorithmus ist in einem halben Dutzend Zeilen der ersten Funktion enthalten f. Zur Veranschaulichung der Verwendung werden im Rest des Codes die vorhergehenden Abbildungen generiert.

library(MASS)     # kde2d
library(spatstat) # im class
f <- function(xy, n, x, y, ...) {
  #
  # Estimate the total where the density does not exceed that at (x,y).
  #
  # `xy` is a 2 by ... array of points.
  # `n`  specifies the numbers of rows and columns to use.
  # `x` and `y` are coordinates of "probe" points.
  # `...` is passed on to `kde2d`.
  #
  # Returns a list:
  #   image:    a raster of the kernel density
  #   integral: the estimates at the probe points.
  #   density:  the estimated densities at the probe points.
  #
  xy.kde <- kde2d(xy[1,], xy[2,], n=n, ...)
  xy.im <- im(t(xy.kde$z), xcol=xy.kde$x, yrow=xy.kde$y) # Allows interpolation $
  z <- interp.im(xy.im, x, y)                            # Densities at the probe points
  c.0 <- sum(xy.kde$z)                                   # Normalization factor $
  i <- sapply(z, function(a) sum(xy.kde$z[xy.kde$z < a])) / c.0
  return(list(image=xy.im, integral=i, density=z))
}
#
# Generate data.
#
n <- 256
set.seed(17)
xy <- matrix(c(rnorm(k <- ceiling(2*n * 0.8), mean=c(6,3), sd=c(3/2, 1)), 
               rnorm(2*n-k, mean=c(2,6), sd=1/2)), nrow=2)
#
# Example of using `f`.
#
y.probe <- 1:6
x.probe <- rep(6, length(y.probe))
lims <- c(min(xy[1,])-15, max(xy[1,])+15, min(xy[2,])-15, max(xy[2,]+15))
ex <- f(xy, 200, x.probe, y.probe, lim=lims)
ex$density; ex$integral
#
# Compare the effects of raster resolution and bandwidth.
#
res <- c(8, 40, 200, 1000)
system.time(
  est.0 <- sapply(res, 
           function(i) f(xy, i, x.probe, y.probe, lims=lims)$integral))
est.0
system.time(
  est.1 <- sapply(res, 
           function(i) f(xy, i, x.probe, y.probe, h=1, lims=lims)$integral))
est.1
system.time(
  est.2 <- sapply(res, 
           function(i) f(xy, i, x.probe, y.probe, h=1/2, lims=lims)$integral))
est.2
system.time(
  est.3 <- sapply(res, 
           function(i) f(xy, i, x.probe, y.probe, h=5, lims=lims)$integral))
est.3
results <- data.frame(Default=est.0[,4], Hp5=est.2[,4], 
                      H1=est.1[,4], H5=est.3[,4])
#
# Compare the integrals at the highest resolution.
#
par(mfrow=c(1,1))
panel <- function(x, y, ...) {
  points(x, y)
  abline(c(0,1), col="Red")
}
pairs(results, lower.panel=panel)
#
# Display two of the density estimates, the data, and the probe points.
#
par(mfrow=c(1,2))
xy.im <- f(xy, 200, x.probe, y.probe, h=0.5)$image
plot(xy.im, main="Bandwidth=1/2", col=terrain.colors(256))
points(t(xy), pch=".", col="Black")
points(x.probe, y.probe, pch=19, col="Red", cex=.5)

xy.im <- f(xy, 200, x.probe, y.probe, h=5)$image
plot(xy.im, main="Bandwidth=5", col=terrain.colors(256))
points(t(xy), pch=".", col="Black")
points(x.probe, y.probe, pch=19, col="Red", cex=.5)

Erstaunliche Antwort, obwohl ich nicht sicher bin, ob ich die Bedeutung der Defaultund der Hp5Bandbreiten verstehe (ich nehme an H1und H5meine h=1und h=5) Ist Hp5der Wert h=1/2? Wenn ja was ist das Default?
Gabriel

1
kde2dbandwidth.nrd31.8515

Verstehe ich das also richtig, wenn ich sage, dass mit der Erhöhung der genutzten Bandbreite auch das Ausmaß des Ergebnisses kdezunimmt (und ich daher die Integrationsgrenzen erweitern muss)? <10%Was halten Sie von der Anwendung der Scottschen Regel , da ich mit einem Fehler im resultierenden Wert des Integrals leben kann?
Gabriel

Ich bin der Meinung, dass Sie den Verdacht haben sollten, dass diese Regeln für Ihre Zwecke nicht geeignet sind, da sie für ganz andere Zwecke entwickelt wurden . Dies gilt insbesondere für die Umsetzung eines Vorschlags unter stats.stackexchange.com/questions/63263 . Es ist verfrüht, sich Gedanken über die Faustregel zu machen, die Sie für KDE verwenden könnten. In diesem Stadium sollten Sie ernsthaft besorgt sein, ob der gesamte Ansatz überhaupt zuverlässig funktioniert.
Whuber

1
Scratch das oben. Ich tun eine Möglichkeit haben , zu wissen , ob die Umsetzung funktioniert und sogar zu quantifizieren , wie gut es funktioniert. Es ist ein bisschen kompliziert und zeitaufwändig, aber ich kann (sollte es können).
Gabriel

1

Wenn Sie eine anständige Anzahl von Beobachtungen haben, müssen Sie möglicherweise überhaupt keine Integration durchführen. Sagen Sie, Ihr neuer Punkt istx0f^xf^(x)<f^(x0)

f^(x0)x


Eine quantitative Analyse dieser Empfehlung oder zumindest eines konkreten Anwendungsbeispiels wäre zu begrüßen. Ich vermute, dass die Genauigkeit Ihres Vorschlags stark von der Form des Kernels abhängt. Dies würde mich zögern, mich auf eine solche Berechnung zu verlassen, ohne deren Eigenschaften eingehend zu untersuchen.
Whuber
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.