Die t Werte und R2 werden verwendet, um sehr unterschiedliche Dinge zu beurteilen. Die t Werte werden verwendet, um die Genauigkeit Ihrer Schätzung der βich zu beurteilen , aber R2 misst den Betrag der Variation Ihrer Antwortvariablen, der durch Ihre Kovariaten erklärt wird. Angenommen, Sie schätzen ein Regressionsmodell mit n Beobachtungen,
Y.ich= β0+ β1X1 i+ . . . + βkXk i+ ϵich
wo ϵich∼ich . ich . dN( 0 , σ2) , i = 1 , . . . , n .
Große t Werte (in absoluten Werten) führen dazu, dass Sie die Nullhypothese, dass βich= 0 , ablehnen . Sie können also sicher sein, dass Sie das Vorzeichen des Koeffizienten richtig geschätzt haben. Auch wenn | t |> 4 und Sie haben n > 5 , dann liegt 0 nicht in einem 99% -Konfidenzintervall für den Koeffizienten. Der t Wert für einen Koeffizienten βich ist die Differenz zwischen der Schätzung βich^ und 0, die durch den Standardfehler s e { βich^} normiert ist .
t = βich^s e { βich^}
Das ist einfach die Schätzung geteilt durch ein Maß für ihre Variabilität. Wenn Sie einen ausreichend großen Datensatz haben, haben Sie immer statistisch signifikante (große) t Werte. Dies bedeutet nicht zwangsläufig, dass Ihre Kovariaten einen Großteil der Variation in der Antwortvariablen erklären.
Wie bereits erwähnt, misst R2 den Betrag der Variation in Ihrer Antwortvariablen, der durch Ihre abhängigen Variablen erklärt wird. Weitere Informationen zu R2 finden Sie auf Wikipedia . In Ihrem Fall haben Sie anscheinend einen ausreichend großen Datensatz, um die βich genau abzuschätzen , aber Ihre Kovariaten können die Antwortwerte schlecht erklären und / oder vorhersagen.