In einem etwas allgemeineren Kontext mit ein dimensionaler Vektor von Beobachtungen (die Antworten oder abhängigen Variablen), eine Matrix von Beobachtungen (Kovariaten oder abhängige Variablen) und die Parameter so, dass dann die Minus-Log-Wahrscheinlichkeit
In der Frage des OP ist diagonal zu
YnyXn×pxθ=(β1,β2,σ)Y∼N(Xβ1,Σ(β2,σ))
l(β1,β2,σ)=12(Y−Xβ1)TΣ(β2,σ)−1(Y−Xβ1)+12log|Σ(β2,σ)|
Σ(β2,σ)Σ(β2,σ)ii=σ2g(zTiβ2)2
so dass die Determinante zu und die resultierende Minus-Log-Wahrscheinlichkeit wird zu
Es gibt verschiedene Möglichkeiten, um die Minimierung dieser Funktion zu erreichen (vorausgesetzt, die drei Parameter sind variationsunabhängig).
σ2n∏ni=1g(zTiβ2)212σ2∑i=1n(yi−xTiβ1)2g(zTiβ2)2+nlogσ+∑i=1nlogg(zTiβ2)
- Sie können versuchen, die Funktion durch einen Standardoptimierungsalgorithmus zu minimieren, wobei die Einschränkung .σ>0
- Sie können die Profil-Minus-Log-Wahrscheinlichkeit von berechnen indem Sie over für fest minimieren und dann die resultierende Funktion in einen standardmäßigen uneingeschränkten Optimierungsalgorithmus einfügen.(β1,β2)σ(β1,β2)
- Sie können zwischen der Optimierung für jeden der drei Parameter separat wechseln. Die Optimierung über kann analytisch erfolgen, die Optimierung über ist ein gewichtetes Regressionsproblem der kleinsten Quadrate, und die Optimierung über entspricht der Anpassung eines gamma-verallgemeinerten linearen Modells mit dem inversen Link.σβ1β2g2
Der letzte Vorschlag spricht mich an, weil er auf Lösungen aufbaut, die ich bereits gut kenne. Darüber hinaus würde ich die erste Iteration sowieso in Betracht ziehen. Das heißt, berechnen Sie zuerst eine anfängliche Schätzung von durch gewöhnliche kleinste Quadrate, wobei Sie die potenzielle Heteroskedastizität ignorieren, und passen Sie dann ein Gamma-Glm an die quadratischen Residuen an, um eine anfängliche Schätzung von nur um zu überprüfen, ob das kompliziertere Modell sinnvoll erscheint. Iterationen, bei denen die Heteroskedastizität in die Lösung der kleinsten Quadrate als Gewichte einbezogen wird, können sich dann gegenüber der Schätzung verbessern.β1β2 −
In Bezug auf den zweiten Teil der Frage würde ich wahrscheinlich in Betracht ziehen, ein Konfidenzintervall für die lineare Kombination entweder unter Verwendung von Standard-MLE-Asymptotika (Überprüfung mit Simulationen, ob die Asymptotik funktioniert) oder durch Bootstrapping zu berechnen.wT1β1+wT2β2
Edit: Mit Standard-MLE-Asymptotik meine ich unter Verwendung der multivariaten Normalnäherung an die Verteilung der MLE mit Kovarianzmatrix die inverse Fisher-Information. Die Fisher-Information ist per Definition die Kovarianzmatrix des Gradienten von . Dies hängt im Allgemeinen von den Parametern ab. Wenn Sie einen analytischen Ausdruck für diese Menge finden, können Sie versuchen, den MLE anzuschließen. Alternativ können Sie die Fisher-Informationen anhand der beobachteten Fisher-Informationen schätzen , die der Hessische Wert von in der MLE ist. Ihr interessierender Parameter ist eine lineare Kombination der Parameter in den beidenllβ-vektoren, daher können Sie aus der approximierenden multivariaten Normalen des MLE eine normale Approximation der Schätzerverteilung finden, wie hier beschrieben . Dies gibt Ihnen einen ungefähren Standardfehler und Sie können Konfidenzintervalle berechnen. Es ist in vielen (mathematischen) Statistikbüchern gut beschrieben, aber eine einigermaßen zugängliche Präsentation, die ich empfehlen kann, ist In All Likelihood von Yudi Pawitan. Wie auch immer, die formale Ableitung der asymptotischen Theorie ist ziemlich kompliziert und beruht auf einer Reihe von Regelmäßigkeitsbedingungen, und sie liefert nur eine gültige asymptotischeVerteilungen. Im Zweifelsfall würde ich daher immer einige Simulationen mit einem neuen Modell durchführen, um zu überprüfen, ob ich den Ergebnissen für realistische Parameter und Stichprobengrößen vertrauen kann. Ein einfaches, nicht parametrisches Bootstrapping, bei dem Sie die Tripel aus dem beobachteten Datensatz mit Ersetzung kann eine nützliche Alternative sein, wenn das Anpassungsverfahren nicht zu zeitaufwändig ist.(yi,xi,zi)