Was ist eine Kontrastmatrix?


46

Was genau ist die Kontrastmatrix (ein Begriff, der sich auf eine Analyse mit kategorialen Prädiktoren bezieht) und wie genau ist die Kontrastmatrix spezifiziert? Das heißt, was sind Spalten, was sind Zeilen, was sind die Einschränkungen für diese Matrix und was bedeuten Zahlen in Spalten jund Zeilen i? Ich habe versucht, in die Dokumente und das Web zu schauen, aber es scheint, dass jeder es benutzt, aber es gibt nirgendwo eine Definition. Ich könnte die verfügbaren vordefinierten Kontraste zurückentwickeln, aber ich denke, die Definition sollte ohne diese verfügbar sein.

> contr.treatment(4)
  2 3 4
1 0 0 0
2 1 0 0
3 0 1 0
4 0 0 1
> contr.sum(4)
  [,1] [,2] [,3]
1    1    0    0
2    0    1    0
3    0    0    1
4   -1   -1   -1
> contr.helmert(4)
  [,1] [,2] [,3]
1   -1   -1   -1
2    1   -1   -1
3    0    2   -1
4    0    0    3
> contr.SAS(4)
  1 2 3
1 1 0 0
2 0 1 0
3 0 0 1
4 0 0 0

"Kontrastmatrix" wird verwendet, um kategoriale IVs (Faktoren) bei der Modellierung darzustellen. Insbesondere wird es verwendet, um einen Faktor in eine Menge von "Kontrastvariablen" umzukodieren (Dummy-Variablen sind nur ein Beispiel). Für jede Art von Kontrastvariablen gibt es eine eigene Kontrastmatrix. Siehe zum Beispiel meine eigene verwandte Frage , die noch nicht beantwortet wurde.
TTNPHNS

5
@ttnphns Tut mir leid, aber Sie machen weiter, was alle Dokumente und Websites tun: Sie erklären, wofür Kontrastmatrizen verwendet werden, ohne sich mit der Frage zu befassen, was die Kontrastmatrix ist. Dies ist der Zweck einer Definition .
Neugierig

3
Natürlich ist es verwandt, aber "was es ist" abzuleiten von "wofür es benötigt wird" ist die Aufgabe eines Detektivs, die nicht benötigt werden sollte. Das ist Reverse Engineering. Dinge sollten dokumentiert werden.
Neugierig

2
ats.ucla.edu/stat/r/library/contrast_coding.htm ist eine gut Rorientierte Ressource für Codierungsmethoden.
Whuber

1
@Curious, nur um Sie wissen zu lassen: Ich habe ttnphns 100 Kopfgelder zugesprochen, aber ich werde ein anderes Kopfgeld auslösen (oder jemanden bitten, dies zu tun), um Gus_est ebenfalls zuzuweisen. Ich habe auch meine eigene Antwort geschrieben, nur für den Fall, dass Sie eine kürzere vorziehen :-)
Amöbe sagt Reinstate Monica

Antworten:


31

In ihrer netten Antwort, @Gus_est, unternahm sie eine mathematische Erklärung des Wesens der Kontrastkoeffizientenmatrix L (dort ein C notiert ). ist die Grundformel zum Testen von Hypothesen in der univariaten allgemeinen linearen Modellierung (wobei Parameter und schätzbare Funktionen sind, die eine Nullhypothese darstellen). Diese Antwort zeigt einige notwendige Formeln, die in modernen ANOVA-Programmen verwendet werden.b kLb=kbk

Meine Antwort sieht ganz anders aus. Es ist für einen Datenanalysten gedacht, der sich eher als "Ingenieur" als als "Mathematiker" versteht. Die Antwort wird also ein (oberflächlicher) "praktischer" oder "didaktischer" Bericht sein und sich darauf konzentrieren, nur Themen zu beantworten Kontrastkoeffizienten bedeuten und (2) wie können sie dazu beitragen, eine ANOVA über ein lineares Regressionsprogramm durchzuführen .

ANOVA als Regression mit Dummy-Variablen: Einführung von Kontrasten .

Stellen wir uns eine ANOVA mit abhängiger Variable Y und kategorialem Faktor A mit 3 Ebenen (Gruppen) vor. Lassen Sie uns von der linearen Regressions Sicht auf dem ANOVA Blick, das ist - über den Faktor in den Satz von Dreh Dummy (auch bekannt als Indikator aka Behandlung aka one-hot ) Binärgrößen. Dies ist unsere unabhängige Menge X . (Wahrscheinlich hat jeder gehört, dass es möglich ist, ANOVA auf diese Weise durchzuführen - als lineare Regression mit Dummy-Prädiktoren.)

Da eine der drei Gruppen redundant ist, werden nur zwei Dummy-Variablen in das lineare Modell aufgenommen. Lassen Sie uns Gruppe3 als redundant oder als Referenz festlegen. Die Dummy-Prädiktoren, die X bilden, sind ein Beispiel für Kontrastvariablen , dh Elementarvariablen, die Kategorien eines Faktors darstellen. X selbst wird oft als Entwurfsmatrix bezeichnet. Wir können den Datensatz nun in ein Programm für multiple lineare Regression , das die Daten und die Regressionskoeffizienten (Parameter) findet. , wobei + "bezeichnet Pseudoinverse.b=(XX)1Xy=X+y

Der äquivalente Durchgang besteht darin, nicht zu zentrieren, sondern den konstanten Term des Modells als erste Spalte von 1 s in X zu addieren und dann die Koeffizienten auf dieselbe Weise wie oben zu schätzen. . So weit, ist es gut.b=(XX)1Xy=X+y

Definieren wir die Matrix C als Aggregation (Zusammenfassung) der Entwurfsmatrix X für unabhängige Variablen . Es zeigt einfach , uns das Codierungsschema beobachtet dort, - der Kontrast Codierung Matrix (= Basismatrix): .C=aggrX

C
              Const  A1    A2
Gr1 (A=1)       1     1     0
Gr2 (A=2)       1     0     1
Gr3 (A=3,ref)   1     0     0

Die Spalten sind die Variablen (Spalten) von X - die elementaren Kontrastvariablen A1 und A2, in diesem Fall Dummy, und die Zeilen sind alle Gruppen / Ebenen des Faktors. So war auch unsere Codierungsmatrix C für das Indikator- oder Dummy-Kontrastcodierungsschema.

Nun wird als Kontrastkoeffizientenmatrix oder L-Matrix bezeichnet. Da C quadratisch ist, ist . Die Kontrastmatrix, die unserem C entspricht - also für Indikatorkontraste unseres Beispiels - lautet daher:L = C + = C - 1C+=LL=C+=C1

L
          Gr1   Gr2   Gr3
         (A=1) (A=2) (A=3)
Const      0     0     1            => Const = Mean_Gr3
A1         1     0    -1            => Param1 = Mean_Gr1-Mean_Gr3
A2         0     1    -1            => Param2 = Mean_Gr2-Mean_Gr3

L-Matrix ist die Matrix, die Kontrastkoeffizienten zeigt . Beachten Sie, dass die Summe der Kontrastkoeffizienten in jeder Zeile (mit Ausnahme der Zeilenkonstante) . Jede solche Zeile wird als Kontrast bezeichnet . Zeilen entsprechen den Kontrastvariablen und Spalten entsprechen den Gruppen, Faktorstufen.0

Die Signifikanz von Kontrastkoeffizienten besteht darin, dass sie das Verständnis dessen erleichtern, was jeder Effekt (jeder in der Regression mit unserem X geschätzte Parameter b , der so codiert ist) im Sinne des Unterschieds (des Gruppenvergleichs) darstellt. Wir sehen unmittelbar nach den Koeffizienten, dass die geschätzte Konstante dem Y-Mittelwert in der Referenzgruppe entspricht; dieser Parameter b1 (dh der Dummy-Variablen A1) entspricht der Differenz: Y-Mittelwert in Gruppe1 minus Y-Mittelwert in Gruppe3; und Parameter b2 ist die Differenz: Mittelwert in Gruppe2 minus Mittelwert in Gruppe3.

Hinweis : Wenn Sie oben (und weiter unten) "Mittelwert" sagen, meinen Sie den geschätzten (vom Modell vorhergesagten) Mittelwert für eine Gruppe, nicht den beobachteten Mittelwert in einer Gruppe.

Eine lehrreiche Bemerkung : Wenn wir eine Regression mit binären Prädiktorvariablen durchführen, sagt der Parameter einer solchen Variablen über den Unterschied in Y zwischen den Gruppen variable = 1 und variable = 0 aus. In der Situation, in der die Binärvariablen eine Menge von k-1 Dummy-Variablen sind, die einen k-level-Faktor darstellen, wird die Bedeutung des Parameters jedoch enger : Es wird der Unterschied in Y zwischen Variable = 1 und (nicht nur Variable = 0, sondern sogar) Referenzvariable angezeigt = 1 Gruppen.

Wie (nach multipliziert ) bringt wir den Wert b , ähnlich in der Bedeutung bringt b . Y ( a g g r X ) +X+y(aggrX)+

OK, wir haben die Definition der Kontrastkoeffizientenmatrix L gegeben . Da , symmetrisch , bedeutet dies, dass Sie eine Kontrastmatrix L basierend auf einem kategorialen Faktor erhalten oder konstruiert haben (s) - Um dieses L in Ihrer Analyse zu testen, müssen Sie wissen, wie Sie Ihre Kontrastprädiktorvariablen X richtig codieren , um das L über eine gewöhnliche Regressionssoftware zu testen (dh diejenige, die nur "kontinuierliche" Variablen des Standard-OLS verarbeitet) Art und Weise, und überhaupt keine kategorialen Faktoren zu erkennen). In unserem vorliegenden Beispiel war die Codierung Variablen vom Typ - Indikator (Dummy). C = L + = L - 1L=C+=C1C=L+=L1

ANOVA als Regression: andere Kontrasttypen .

Lassen Sie uns kurz andere Kontrasttypen beobachten (= Kodierungsschemata, = Parametrisierung Stile) für einen kategorischen Faktor A .

Abweichungen oder Effektkontraste . C- und L- Matrizen und Parameterbedeutung:

C
              Const  A1    A2
Gr1 (A=1)       1     1     0
Gr2 (A=2)       1     0     1
Gr3 (A=3,ref)   1    -1    -1

L
          Gr1   Gr2   Gr3
         (A=1) (A=2) (A=3)
Const     1/3   1/3   1/3      => Const = 1/3Mean_Gr3+1/3Mean_Gr2+1/3Mean_Gr3 = Mean_GU
A1        2/3  -1/3  -1/3      => Param1 = 2/3Mean_Gr1-1/3(Mean_Gr2+Mean_Gr3) = Mean_Gr1-Mean_GU
A2       -1/3   2/3  -1/3      => Param2 = 2/3Mean_Gr2-1/3(Mean_Gr1+Mean_Gr3) = Mean_Gr2-Mean_GU

                                  Parameter for the reference group3 = -(Param1+Param2) = Mean_Gr3-Mean_GU

                                  Mean_GU is grand unweighted mean = 1/3(Mean_Gr1+Mean_Gr2+Mean_Gr3)

Durch die Abweichungscodierung wird jede Gruppe des Faktors mit dem ungewichteten Mittelwert verglichen, während Konstante der Mittelwert ist. Dies ist, was Sie in der Regression mit Kontrastvorhersagern X erhalten, die in Abweichung oder Effekt "Weise" codiert sind.

Einfache Kontraste . Dieses Kontrast- / Codierungsschema ist eine Mischung aus Indikator- und Abweichungstypen. Es gibt die Bedeutung der Konstanten wie beim Abweichungstyp und die Bedeutung der anderen Parameter wie beim Indikatortyp an:

C
              Const  A1    A2
Gr1 (A=1)       1   2/3  -1/3
Gr2 (A=2)       1  -1/3   2/3
Gr3 (A=3,ref)   1  -1/3  -1/3

L
          Gr1   Gr2   Gr3
         (A=1) (A=2) (A=3)
Const     1/3   1/3   1/3        => Const = as in Deviation
A1         1     0    -1         => Param1 = as in Indicator
A2         0     1    -1         => Param2 = as in Indicator

Helmert kontrastiert . Vergleicht jede Gruppe (mit Ausnahme der Referenz) mit dem ungewichteten Mittelwert der nachfolgenden Gruppen, und Konstante ist der ungewichtete Mittelwert. C- und L- Matrizen:

C
              Const  A1    A2
Gr1 (A=1)       1   2/3    0
Gr2 (A=2)       1  -1/3   1/2
Gr3 (A=3,ref)   1  -1/3  -1/2

L
          Gr1   Gr2   Gr3
         (A=1) (A=2) (A=3)
Const     1/3   1/3   1/3        => Const = Mean_GU
A1         1   -1/2  -1/2        => Param1 = Mean_Gr1-1/2(Mean_Gr2+Mean_Gr3)
A2         0     1    -1         => Param2 = Mean_Gr2-Mean_Gr3

Unterschiedliche oder umgekehrte Helmert-Kontraste . Vergleicht jede Gruppe (außer Referenz) mit dem ungewichteten Mittelwert der vorherigen Gruppen, und Konstante ist der ungewichtete Mittelwert.

C
              Const  A1    A2
Gr1 (A=1)       1  -1/2  -1/3
Gr2 (A=2)       1   1/2  -1/3
Gr3 (A=3,ref)   1    0    2/3

L
          Gr1   Gr2   Gr3
         (A=1) (A=2) (A=3)
Const     1/3   1/3   1/3        => Const = Mean_GU
A1        -1     1     0         => Param1 = Mean_Gr2-Mean_Gr1
A2       -1/2  -1/2    1         => Param2 = Mean_Gr3-1/2(Mean_Gr2+Mean_Gr1)

Wiederholte Kontraste . Vergleicht jede Gruppe (außer Referenz) mit der nächsten Gruppe und Konstante ist der ungewichtete Mittelwert.

C
              Const  A1    A2
Gr1 (A=1)       1   2/3   1/3
Gr2 (A=2)       1  -1/3   1/3
Gr3 (A=3,ref)   1  -1/3  -2/3

L
          Gr1   Gr2   Gr3
         (A=1) (A=2) (A=3)
Const     1/3   1/3   1/3        => Const = Mean_GU
A1         1    -1     0         => Param1 = Mean_Gr1-Mean_Gr2
A2         0     1    -1         => Param2 = Mean_Gr2-Mean_Gr3

Die Frage how exactly is contrast matrix specified?lautet : Wenn man die bisher skizzierten Arten von Kontrasten betrachtet, ist es möglich zu verstehen, wie. Jeder Typ hat seine Logik, wie die Werte in L "ausgefüllt" werden . Die Logik gibt an, was die einzelnen Parameter bedeuten - welche beiden Gruppenkombinationen sollen verglichen werden?

Polynomkontraste . Diese sind etwas speziell, nichtlinear. Der erste Effekt ist linear, der zweite quadratisch und der nächste kubisch. Ich lasse hier die Frage unbeantwortet, wie ihre C- und L- Matrizen konstruiert werden sollen und ob sie die Umkehrung voneinander sind. Bitte konsultieren Sie die ausführlichen Erklärungen von @Antoni Parellada zu dieser Art von Kontrast: 1 , 2 .

In ausgeglichenen Designs sind Helmert-, Reverse Helmert- und Polynomkontraste immer orthogonale Kontraste . Andere oben betrachtete Typen sind keine orthogonalen Kontraste. Orthogonal (unter Ausgeglichenheit) ist der Kontrast, wobei in der Kontrastmatrix L Summe in jeder Zeile (außer Const) Null ist und die Summe der Produkte der entsprechenden Elemente jedes Zeilenpaars Null ist.

Hier sind die Winkelähnlichkeitsmaße (Cosinus- und Pearson-Korrelation) unter verschiedenen Kontrasttypen, mit Ausnahme des Polynoms, das ich nicht getestet habe. Lassen Sie uns einen einzelnen Faktor A mit kPegeln haben, der dann in die Menge der k-1Kontrastvariablen eines bestimmten Typs umkodiert wurde . Was sind die Werte in der Korrelations- oder Kosinusmatrix zwischen diesen Kontrastvariablen?

                     Balanced (equal size) groups     Unbalanced groups
Contrast type             cos        corr              cos        corr

INDICATOR                  0       -1/(k-1)             0         varied
DEVIATION                 .5          .5              varied      varied
SIMPLE                 -1/(k-1)    -1/(k-1)           varied      varied
HELMERT, REVHELMERT        0           0              varied      varied
REPEATED                varied   =  varied            varied      varied

   "=" means the two matrices are same while elements in matrix vary

Ich gebe den Tisch zur Information und lasse ihn unkommentiert. Dies ist von einiger Bedeutung für einen tieferen Einblick in die allgemeine lineare Modellierung.

Benutzerdefinierte Kontraste . Dies ist, was wir zusammenstellen, um eine benutzerdefinierte Vergleichshypothese zu testen. Normalerweise sollte die Summe in jeder außer der ersten Reihe von L 0 sein, was bedeutet, dass zwei Gruppen oder zwei Gruppenzusammensetzungen in dieser Reihe verglichen werden (dh mit diesem Parameter).

Wo sind denn die Modellparameter ?

Sind sie die Zeilen oder die Spalten von L ? Im gesamten obigen Text habe ich gesagt, dass Parameter den Zeilen von L entsprechen , da die Zeilen Kontrastvariablen darstellen, die Prädiktoren. Während die Spalten Ebenen eines Faktors sind, sind die Gruppen. Dies könnte im Widerspruch zu einem solchen theoretischen Block aus der Antwort @Gus_est stehen, bei dem die Spalten eindeutig den Parametern entsprechen:

H0:[011000011000011][β0β1β2β3β4]=[000]

Eigentlich gibt es keinen Widerspruch und die Antwort auf das "Problem" lautet: Sowohl Zeilen als auch Spalten der Kontrastkoeffizientenmatrix entsprechen den Parametern! Denken Sie nur daran, dass Kontraste (Kontrastvariablen), die Zeilen, ursprünglich nur zur Darstellung der Faktorstufen erstellt wurden: Sie sind die Stufen mit Ausnahme der weggelassenen Referenzstufe. Vergleichen Sie bitte diese beiden äquivalenten Schreibweisen der L-Matrix für den einfachen Kontrast:

L
          Gr1   Gr2   Gr3
          A=1   A=2   A=3(reference)
Const     1/3   1/3   1/3 
A1         1     0    -1  
A2         0     1    -1   

L
            b0    b1    b2    b3(redundant)
           Const  A=1   A=2   A=3(reference)
b0  Const   1    1/3   1/3   1/3 
b1  A1      0     1     0    -1  
b2  A2      0     0     1    -1   

Das erste ist das, was ich zuvor gezeigt habe, das zweite ist eher ein "theoretisches" Layout (für die allgemeine lineare Modellalgebra). Es wurde einfach eine Spalte hinzugefügt, die dem konstanten Term entspricht. Die Parameterkoeffizienten b kennzeichnen die Zeilen und Spalten. Parameter b3 wird redundant auf Null gesetzt. Sie können das zweite Layout pseudoinversieren, um die Codierungsmatrix C zu erhalten , in der Sie unten rechts noch die korrekten Codes für die Kontrastvariablen A1 und A2 finden. Dies gilt für jeden beschriebenen Kontrasttyp (mit Ausnahme des Indikatortyps, bei dem die Pseudoinverse eines solchen rechteckigen Layouts kein korrektes Ergebnis liefert). Dies ist wahrscheinlich der Grund, warum der einfache Kontrasttyp der Einfachheit halber erfunden wurde: Kontrastkoeffizienten identisch mit dem Indikatortyp, jedoch für Reihenkonstante).

Ergebnisse der Kontrasttyp- und ANOVA-Tabelle .

(μ1=μ2,μ2=μ3)(μ1=μ23,μ2=μ3)(μ1=μ123,μ2=μ123)(μ1=μ3,μ2=μ3)

ANOVA-Programme, die über ein allgemeines lineares Modellparadigma implementiert wurden, können sowohl eine ANOVA-Tabelle (kombinierte Effekte: Haupt-, Interaktions-) als auch eine Parameterschätzungstabelle (Elementareffekte b ) anzeigen . Einige Programme geben möglicherweise die letztgenannte Tabelle entsprechend dem Kontrasttyp aus, wie vom Benutzer geboten, aber die meisten geben immer die Parameter aus, die einem Typ entsprechen - häufig dem Indikatortyp, da ANOVA-Programme auf der Grundlage eines allgemeinen linearen Modells spezifisch Dummy-Variablen parametrisieren (am bequemsten) zu tun) und dann für Kontraste durch spezielle "Verknüpfungs" -Formeln umzuschalten, die den festen Dummy-Eingang zu einem (beliebigen) Kontrast interpretieren.

Während in meiner Antwort - ANOVA als Regression darstellend - die "Verknüpfung" bereits auf der Ebene der Eingabe X verwirklicht wird , die aufgerufen hat, den Begriff des geeigneten Codierungsschemas für die Daten einzuführen .

Einige Beispiele, die das Testen von ANOVA-Kontrasten über die übliche Regression zeigen .

Zeigen Sie in SPSS der Anforderung einen Kontrasttyp in ANOVA an und erhalten Sie das gleiche Ergebnis über die lineare Regression. Wir haben einen Datensatz mit Y und Faktoren A (3 Ebenen, Referenz = letzte) und B (4 Ebenen, Referenz = letzte); Finden Sie die Daten weiter unten.

Beispiel für Abweichungskontraste unter Vollfaktormodell (A, B, A * B). Der Abweichungstyp wird für A und B angefordert (wir können zu Ihrer Information für jeden Faktor einen anderen Typ anfordern).

Kontrastkoeffizientenmatrix L für A und für B:

            A=1      A=2      A=3
Const     .3333    .3333    .3333 
dev_a1    .6667   -.3333   -.3333
dev_a2   -.3333    .6667   -.3333

            B=1      B=2      B=3      B=4
Const     .2500    .2500    .2500    .2500
dev_b1    .7500   -.2500   -.2500   -.2500 
dev_b2   -.2500    .7500   -.2500   -.2500 
dev_b3   -.2500   -.2500    .7500   -.2500

Fordern Sie das ANOVA-Programm ( GLMin SPSS) an, eine Varianzanalyse durchzuführen und explizite Ergebnisse für Abweichungskontraste auszugeben:

Bildbeschreibung hier eingeben

Bildbeschreibung hier eingeben

Der Abweichungskontrasttyp verglich A = 1 mit dem ungewichteten Mittelwert und A = 2 mit demselben Mittelwert. Rote Ellipsen kennzeichnen die Differenzschätzungen und ihre p-Werte. Der kombinierte Effekt über dem Faktor A ist durch ein rotes Rechteck gekennzeichnet. Für Faktor B ist alles analog blau eingefärbt. Anzeige auch der ANOVA-Tabelle. Beachten Sie, dass die kombinierten Kontrasteinflüsse den Haupteffekten darin entsprechen.

Bildbeschreibung hier eingeben

Lassen Sie uns nun physikalische Kontrastvariablen dev_a1, dev_a2, dev_b1, dev_b2, dev_b3 erstellen und die Regression ausführen. Invertieren Sie die L- Matrizen, um die codierenden C- Matrizen zu erhalten:

      dev_a1   dev_a2
A=1   1.0000    .0000 
A=2    .0000   1.0000 
A=3  -1.0000  -1.0000

      dev_b1   dev_b2   dev_b3
B=1   1.0000    .0000    .0000 
B=2    .0000   1.0000    .0000 
B=3    .0000    .0000   1.0000 
B=4  -1.0000  -1.0000  -1.0000

X=DCDkk

Nachdem Sie die Kontrastvariablen erstellt haben, multiplizieren Sie diese mit verschiedenen Faktoren, um Variablen zur Darstellung von Interaktionen zu erhalten (unser ANOVA-Modell war voll faktoriell): dev_a1b1, dev_a1b2, dev_a1b3, dev_a2b1, dev_a2b2, dev_a2b3. Führen Sie dann mehrere lineare Regressionen mit allen Prädiktoren aus.

Bildbeschreibung hier eingeben

Wie erwartet ist dev_a1 derselbe Effekt wie der Kontrast "Level 1 vs Mean"; dev_a2 ist dasselbe wie "Level 2 vs Mean" usw. usw. - Vergleichen Sie die eingefärbten Teile mit der obigen ANOVA-Kontrastanalyse.

Beachten Sie, dass, wenn wir die Interaktionsvariablen dev_a1b1, dev_a1b2 ... in der Regression nicht verwenden, die Ergebnisse mit den Ergebnissen der ANOVA-Kontrastanalyse nur mit Haupteffekten übereinstimmen.

Einfaches Kontrastbeispiel unter dem gleichen vollfaktoriellen Modell (A, B, A * B).

Kontrastkoeffizientenmatrix L für A und für B:

            A=1      A=2      A=3
Const     .3333    .3333    .3333 
sim_a1   1.0000    .0000  -1.0000
sim_a2    .0000   1.0000  -1.0000

            B=1      B=2      B=3      B=4
Const     .2500    .2500    .2500    .2500
sim_b1   1.0000    .0000    .0000  -1.0000
sim_b2    .0000   1.0000    .0000  -1.0000
sim_b3    .0000    .0000   1.0000  -1.0000

ANOVA-Ergebnisse für einfache Kontraste:

Bildbeschreibung hier eingeben

Bildbeschreibung hier eingeben

Das Gesamtergebnis (ANOVA-Tabelle) ist dasselbe wie bei Abweichungskontrasten (wird jetzt nicht angezeigt).

Erstellen Sie physikalische Kontrastvariablen sim_a1, sim_a2, sim_b1, sim_b2, sim_b3. Die Codierungsmatrizen durch Invertieren der L-Matrizen sind (ohne Const-Spalte):

      sim_a1   sim_a2
A=1    .6667   -.3333
A=2   -.3333    .6667
A=3   -.3333   -.3333

      sim_b1   sim_b2   sim_b3
B=1    .7500   -.2500   -.2500
B=2   -.2500    .7500   -.2500
B=3   -.2500   -.2500    .7500
B=4   -.2500   -.2500   -.2500

X=DC

Bildbeschreibung hier eingeben

Nach wie vor sehen wir, dass die Ergebnisse von Regression und ANOVA übereinstimmen. Ein Regressionsparameter einer einfachen Kontrastvariablen ist die Differenz (und der Signifikanztest) zwischen dieser Ebene des Faktors und der Referenzebene (in unserem Beispiel die letzte).

Die in den Beispielen verwendeten Zwei-Faktor-Daten:

     Y      A      B
 .2260      1      1
 .6836      1      1
-1.772      1      1
-.5085      1      1
1.1836      1      2
 .5633      1      2
 .8709      1      2
 .2858      1      2
 .4057      1      2
-1.156      1      3
1.5199      1      3
-.1388      1      3
 .4865      1      3
-.7653      1      3
 .3418      1      4
-1.273      1      4
1.4042      1      4
-.1622      2      1
 .3347      2      1
-.4576      2      1
 .7585      2      1
 .4084      2      2
1.4165      2      2
-.5138      2      2
 .9725      2      2
 .2373      2      2
-1.562      2      2
1.3985      2      3
 .0397      2      3
-.4689      2      3
-1.499      2      3
-.7654      2      3
 .1442      2      3
-1.404      2      3
-.2201      2      4
-1.166      2      4
 .7282      2      4
 .9524      2      4
-1.462      2      4
-.3478      3      1
 .5679      3      1
 .5608      3      2
1.0338      3      2
-1.161      3      2
-.1037      3      3
2.0470      3      3
2.3613      3      3
 .1222      3      4

Beispiel für benutzerdefinierten Kontrast. Lassen Sie uns einen einzelnen Faktor F mit 5 Stufen haben. Ich werde eine Reihe von benutzerdefinierten orthogonalen Kontrasten in ANOVA und in Regression erstellen und testen.

Bildbeschreibung hier eingeben

LL

Lassen Sie uns die Matrix dem ANOVA-Verfahren von SPSS unterziehen, um die Kontraste zu testen. Nun, wir können auch nur eine Zeile (Kontrast) aus der Matrix einreichen, aber wir werden die gesamte Matrix einreichen, da wir - wie in den vorherigen Beispielen - die gleichen Ergebnisse über die Regression erhalten möchten und das Regressionsprogramm das vollständige Ergebnis benötigt Reihe von Kontrastvariablen (um zu wissen, dass sie zu einem Faktor gehören!). Wir werden die konstante Zeile zu L hinzufügen, so wie wir es zuvor getan haben, obwohl wir sie sicher weglassen können, wenn wir nicht auf den Achsenabschnitt testen müssen.

UNIANOVA Y BY F
  /METHOD=SSTYPE(3)
  /INTERCEPT=INCLUDE
  /CONTRAST (F)= special
       (.2 .2 .2 .2 .2
         3  3 -2 -2 -2
         1 -1  0  0  0
         0  0  2 -1 -1
         0  0  0  1 -1)
  /DESIGN=F.

Equivalently, we might also use this syntax (with a more flexible /LMATRIX subcommand)
if we omit the Constant row from the matrix.
UNIANOVA Y BY F
  /METHOD=SSTYPE(3)
  /INTERCEPT=INCLUDE
  /LMATRIX= "User contrasts"
       F  3  3 -2 -2 -2;
       F  1 -1  0  0  0;
       F  0  0  2 -1 -1;
       F  0  0  0  1 -1
  /DESIGN=F.

Bildbeschreibung hier eingeben

Der Gesamt-Kontrast-Effekt (unten im Bild) stimmt nicht mit dem erwarteten Gesamt-ANOVA-Effekt überein:

Bildbeschreibung hier eingeben

aber es ist einfach das Artefakt unserer Einfügung des konstanten Terms in die L-Matrix. Für impliziert SPSS bereits Konstante, wenn benutzerdefinierte Kontraste angegeben werden. Entfernen Sie die konstante Zeile von L und Sie erhalten die gleichen Kontrastergebnisse (Matrix K auf dem Bild oben), außer dass der L0-Kontrast nicht angezeigt wird. Und der Gesamtkontrasteffekt entspricht der gesamten ANOVA:

Bildbeschreibung hier eingeben

C=L+X=DC

C
      use_f1   use_f2   use_f3   use_f4
F=1    .1000    .5000    .0000    .0000
F=2    .1000   -.5000    .0000    .0000
F=3   -.0667    .0000    .3333    .0000
F=4   -.0667    .0000   -.1667    .5000
F=5   -.0667    .0000   -.1667   -.5000

Bildbeschreibung hier eingeben

Beobachten Sie die Identität der Ergebnisse. Die in diesem Beispiel verwendeten Daten:

     Y      F
 .2260      1
 .6836      1
-1.772      1
-.5085      1
1.1836      1
 .5633      1
 .8709      1
 .2858      1
 .4057      1
-1.156      1
1.5199      2
-.1388      2
 .4865      2
-.7653      2
 .3418      2
-1.273      2
1.4042      2
-.1622      3
 .3347      3
-.4576      3
 .7585      3
 .4084      3
1.4165      3
-.5138      3
 .9725      3
 .2373      3
-1.562      3
1.3985      3
 .0397      4
-.4689      4
-1.499      4
-.7654      4
 .1442      4
-1.404      4
-.2201      4
-1.166      4
 .7282      4
 .9524      5
-1.462      5
-.3478      5
 .5679      5
 .5608      5
1.0338      5
-1.161      5
-.1037      5
2.0470      5
2.3613      5
 .1222      5

Kontraste in anderen als (M) ANOVA-Analysen .

Überall dort, wo nominelle Prädiktoren auftreten, stellt sich die Frage nach dem Kontrast (welcher Kontrasttyp für welchen Prädiktor auszuwählen ist). Einige Programme lösen es intern im Hintergrund, wenn die Gesamt- und Sammelergebnisse nicht vom ausgewählten Typ abhängen. Wenn Sie möchten, dass ein bestimmter Typ mehr "elementare" Ergebnisse liefert, müssen Sie auswählen. Sie wählen einen Kontrast aus (oder komponieren ihn), auch wenn Sie eine benutzerdefinierte Vergleichshypothese testen.

(M) ANOVA- und loglineare Analyse, gemischte und manchmal verallgemeinerte lineare Modellierung umfassen Optionen zur Behandlung von Prädiktoren über verschiedene Arten von Kontrasten. Aber wie ich zu zeigen versucht habe, ist es möglich, Kontraste explizit und von Hand als Kontrastvariablen zu erzeugen. Wenn Sie dann kein ANOVA-Paket zur Hand haben, können Sie dies - in vielerlei Hinsicht mit ebenso viel Glück - mit mehrfacher Regression tun.


1
Bitte beschränken Sie diese Antwort nach Möglichkeit nicht nur auf anova. Das [anova] -Tag wurde von @amoeba hinzugefügt, als Sie meine Frage beantwortet haben, aber ich möchte nicht, dass die Antwort nur auf anova beschränkt wird.
Neugierig

CLCL

@amoeba, ich kenne mich mit "Kontrastmatrix" nicht aus und bin mir fast sicher, dass es für "Kontrastkoeffizientenmatrix" oder L-Matrix steht, eine offizielle oder zumindest weit verbreitete Bezeichnung in (M) ANOVA / GLM. Der Ausdruck "Kontrastcodierungsmatrix" wird viel weniger erwähnt, da es sich lediglich um die Gesamtansicht der Entwurfsmatrix X handelt; Ich habe ein "Basismatrix" -Wort gesehen, das in Artikeln von Dave Nichols, einem hochrangigen Statistiker von SPSS, verwendet wurde. Absolut, L (offizielles Label) und C (willkürliches Label?) Sind so eng miteinander verwandt, dass man kaum ohne das andere diskutieren kann. Ich nehme an, dass "Kontrastmatrix" als dieses Paar betrachtet werden sollte.
TTNPHNS

1
Ja, ich stimme zu. Mittlerweile bin ich davon überzeugt, dass "Kontrastmatrix" ein Begriff ist, der nur in der R-Community verwendet wird und sich auf das Kodierungsschema bezieht. Ich habe das Lehrbuch überprüft, auf das sich Gus_est bezieht, und sie verwenden nie den Begriff "Kontrastmatrix", sie sprechen nur über "Kontraste" (siehe meinen letzten Kommentar unter seiner Antwort). Das OP fragte eindeutig nach der "Kontrastmatrix" im R-Sinne.
Amöbe sagt Reinstate Monica

1
That L will determine what are you going to test, you aren't free anymore to choose what to testβi=0β1β2/2β3/2=0

17

Ich verwende Kleinbuchstaben für Vektoren und Großbuchstaben für Matrizen.

Im Falle eines linearen Modells der Form:

y=Xβ+ε

wo ist ein Matrix des Rangs , und nehmen wir an .Xn×(k+1)k+1nεN(0,σ2)

Wir können nach schätzen , seit dem Inverse von existiert.β^(XX)1XyXX

Für den ANOVA-Fall haben wir nun, dass nicht mehr den vollen Rang hat. Dies impliziert, dass wir kein und uns mit dem verallgemeinerten Inversen .X(XX)1(XX)

Eines der Probleme bei der Verwendung dieses verallgemeinerten Inversen ist, dass es nicht eindeutig ist. Ein weiteres Problem ist, dass wir keinen unvoreingenommene Schätzer für , da β

β^=(XX)XyE(β^)=(XX)XXβ.

Daher können wir nicht schätzen . Aber können wir eine lineare Kombination der abschätzen ?ββ

Wir haben, dass eine lineare Kombination der 's, sagen wir , schätzbar ist, wenn es einen Vektor so dass .βgβaE(ay)=gβ


Die Kontraste sind ein Sonderfall von schätzbaren Funktionen, bei denen die Summe der Koeffizienten von gleich Null ist.g

Und Kontraste treten im Kontext kategorialer Prädiktoren in einem linearen Modell auf. (Wenn Sie das durch @amoeba verknüpfte Handbuch überprüfen, sehen Sie, dass alle ihre Kontrastcodierungen mit kategorialen Variablen zusammenhängen). Wenn wir dann @Curious und @amoeba beantworten, sehen wir, dass sie in ANOVA auftreten, jedoch nicht in einem "reinen" Regressionsmodell mit nur kontinuierlichen Prädiktoren (wir können auch über Kontraste in ANCOVA sprechen, da wir einige kategoriale Variablen darin haben).


Nun, im Modell wo füllt nicht den gesamten Rang und , die lineare Funktion ist schätzbar, wenn es einen Vektor so dass . Das heißt, ist eine lineare Kombination der Zeilen von . Es gibt auch viele Möglichkeiten für den Vektor , so dass , wie wir im folgenden Beispiel sehen können.X E ( y )

y=Xβ+ε
XE(y)=XβgβaaX=ggXaaX=g

Beispiel 1

Betrachten Sie das :

yij=μ+αi+εij,i=1,2,j=1,2,3.

X=[110110110101101101],β=[μτ1τ2]

Angenommen, , dann möchten wir .[0,1,-1]β= τ 1 - τ 2g=[0,1,1][0,1,1]β=τ1τ2

Wir können sehen, dass es verschiedene Möglichkeiten des Vektors , die : take ; oder ; oder .aaX=ga=[0,0,1,1,0,0]a=[1,0,0,0,0,1]a=[2,1,0,0,1,2]


Beispiel 2

Nehmen Sie das Zwei-Wege-Modell: .

yij=μ+αi+βj+εij,i=1,2,j=1,2

X=[11010110011011010101],β=[μα1α2β1β2]

Wir können die schätzbaren Funktionen definieren, indem wir lineare Kombinationen der Zeilen von .X

Subtrahieren von Zeile 1 von den Zeilen 2, 3 und 4 (von ): X

[11010000110110001111]

Nehmen Sie die Zeilen 2 und 3 aus der vierten Zeile:

[11010000110110000000]

Das Multiplizieren mit ergibt: β

g1β=μ+α1+β1g2β=β2β1g3β=α2α1

Wir haben also drei linear unabhängige schätzbare Funktionen. Nun können nur und als Kontraste betrachtet werden, da die Summe ihrer Koeffizienten (oder die Zeile) Summe des jeweiligen Vektors ) ist gleich Null.g2βg3βg


Zurück zu einem in eine Richtung ausgeglichenen Modell

yij=μ+αi+εij,i=1,2,,k,j=1,2,,n.

Angenommen, wir möchten die Hypothese testen .H0:α1==αk

In dieser Einstellung ist die Matrix nicht vollständig, daher ist nicht eindeutig und kann nicht geschätzt werden. Um es schätzbar zu machen, können wir mit multiplizieren , solange . Mit anderen Worten ist schätzbar, wenn .Xβ=(μ,α1,,αk)βgigi=0igiαiigi=0

Warum ist das so?

Wir wissen, dass schätzbar ist, wenn es einen Vektor gibt so, dass . Nehmen Sie die verschiedenen Zeilen von und , dann: gβ=(0,g1,,gk)β=igiαiag=aXXa=[a1,,ak]

[0,g1,,gk]=g=aX=(iai,a1,,ak)

Und das Ergebnis folgt.


Wenn wir einen bestimmten Kontrast testen möchten, lautet unsere Hypothese . Zum Beispiel: , was wie geschrieben werden kann , also vergleichen wir mit dem Durchschnitt von und .H0:giαi=0H0:2α1=α2+α3H0:α1=α2+α32α1α2α3

Diese Hypothese kann ausgedrückt werden als , wobei . In diesem Fall ist und wir testen diese Hypothese mit der folgenden Statistik: H0:gβ=0g=(0,g1,g2,,gk)q=1

F=[gβ^][g(XX)g]1gβ^SSE/k(n1).

Wenn als ausgedrückt wird, die Zeilen der Matrix sind gegenseitig orthogonale Kontraste ( ), dann können wir mit der Statistik , wobeiH0:α1=α2==αkGβ=0

G=[g1g2gk]
gigj=0H0:Gβ=0F=SSHrank(G)SSEk(n1)SSH=[Gβ^][G(XX)1G]1Gβ^.

Beispiel 3

Um dies besser zu verstehen, verwenden wir und nehmen an, wir wollen kann ausgedrückt werden als k=4H0:α1=α2=α3=α4,

H0:[α1α2α1α3α1α4]=[000]

Oder als : H0:Gβ=0

H0:[011000101001011]G,our contrast matrix[μα1α2α3α4]=[000]

Wir sehen also, dass die drei Zeilen unserer Kontrastmatrix durch die Koeffizienten der interessierenden Kontraste definiert sind. Und jede Spalte gibt die Faktorstufe an, die wir für unseren Vergleich verwenden.


Ziemlich alles, was ich geschrieben habe, wurde (schamlos) aus Rencher & Schaalje, "Lineare Modelle in der Statistik", Kapitel 8 und 13 (Beispiele, Formulierungen von Theoremen, einige Interpretationen) übernommen, aber andere Dinge wie der Begriff "Kontrastmatrix" "(was in der Tat in diesem Buch nicht vorkommt) und die hier angegebene Definition waren meine eigenen.


Beziehen Sie die Kontrastmatrix von OP auf meine Antwort

Eine der Matrixen von OP (die auch in diesem Handbuch zu finden ist ) ist die folgende:

> contr.treatment(4)
  2 3 4
1 0 0 0
2 1 0 0
3 0 1 0
4 0 0 1

In diesem Fall hat unser Faktor 4 Ebenen und wir können das Modell folgendermaßen schreiben: Dies kann in Matrixform geschrieben werden als:

[y11y21y31y41]=[μμμμ]+[a1a2a3a4]+[ε11ε21ε31ε41]

Oder

[y11y21y31y41]=[11000101001001010001]X[μa1a2a3a4]β+[ε11ε21ε31ε41]

Für das Dummy-Codierungsbeispiel im selben Handbuch wird jetzt als Referenzgruppe verwendet. Also subtrahieren wir Zeile 1 von jeder anderen Zeile in der Matrix , was die ergibt :a1XX~

[11000011000101001001]

Wenn Sie die Nummerierung der Zeilen und Spalten in der Matrix contr.treatment (4) beobachten, werden Sie feststellen, dass alle Zeilen und nur die Spalten berücksichtigt werden, die sich auf die Faktoren 2, 3 und 4 beziehen Die obige Matrix ergibt:

[000100010001]

Auf diese Weise sagt uns die Matrix contr.treatment (4), dass sie die Faktoren 2, 3 und 4 mit Faktor 1 und den Faktor 1 mit der Konstanten vergleicht (so verstehe ich das Obige).

Und definieren Sie (dh, Sie nehmen nur die Zeilen, die in der obigen Matrix 0 ergeben): G

[011000101001001]

Wir können testen und die Schätzungen der Kontraste finden.H0:Gβ=0

hsb2 = read.table('http://www.ats.ucla.edu/stat/data/hsb2.csv', header=T, sep=",")

y<-hsb2$write

dummies <- model.matrix(~factor(hsb2$race)+0)
X<-cbind(1,dummies)

# Defining G, what I call contrast matrix
G<-matrix(0,3,5)
G[1,]<-c(0,-1,1,0,0)
G[2,]<-c(0,-1,0,1,0)
G[3,]<-c(0,-1,0,0,1)
G
     [,1] [,2] [,3] [,4] [,5]
[1,]    0   -1    1    0    0
[2,]    0   -1    0    1    0
[3,]    0   -1    0    0    1

# Estimating Beta

X.X<-t(X)%*%X
X.y<-t(X)%*%y

library(MASS)
Betas<-ginv(X.X)%*%X.y

# Final estimators:
G%*%Betas
          [,1]
[1,] 11.541667
[2,]  1.741667
[3,]  7.596839

Und die Schätzungen sind gleich.


@Ttnphns Antwort auf meine beziehen.

In ihrem ersten Beispiel hat das Setup einen Kategoriefaktor A mit drei Ebenen. Wir können dies als Modell schreiben (der Einfachheit halber sei ): j=1

yij=μ+ai+εij,for i=1,2,3

Angenommen, wir möchten testen oder , wobei unsere Referenzgruppe / unser Referenzfaktor ist.H0:a1=a2=a3H0:a1a3=a2a3=0a3

Dies kann in Matrixform geschrieben werden als:

[y11y21y31]=[μμμ]+[a1a2a3]+[ε11ε21ε31]

Oder

[y11y21y31]=[110010101001]X[μa1a2a3]β+[ε11ε21ε31]

Wenn wir nun Zeile 3 von Zeile 1 und Zeile 2 subtrahieren, erhalten wir, dass wird (ich werde es :XX~

X~=[010100111001]

Vergleichen Sie die letzten 3 Spalten der obigen Matrix mit @ttnphns 'Matrix . Trotz der Reihenfolge sind sie ziemlich ähnlich. In der Tat erhalten wir , wenn multipliziert wird :LX~β

[010100111001][μa1a2a3]=[a1a3a2a3μ+a3]

Wir haben also die schätzbaren Funktionen: ; ; .c1β=a1a3c2β=a2a3c3β=μ+a3

Da , sehen wir aus dem Obigen, dass wir unsere Konstante mit dem Koeffizienten für die Referenzgruppe (a_3) vergleichen; der Koeffizient der Gruppe 1 zum Koeffizienten der Gruppe 3; und der Koeffizient von Gruppe2 zu Gruppe3. Oder, wie @ttnphns sagte: "Wir sehen unmittelbar nach den Koeffizienten, dass die geschätzte Konstante dem Y-Mittelwert in der Referenzgruppe entspricht. Dieser Parameter b1 (dh der Dummy-Variablen A1) entspricht der Differenz: Y-Mittelwert in Gruppe1 minus Y bedeutet in Gruppe 3; und Parameter b2 ist die Differenz: Mittelwert in Gruppe 2 minus Mittelwert in Gruppe 3. "H0:ciβ=0

Beachten Sie außerdem, dass (nach der Definition von Kontrast: Schätzfunktion + Zeilensumme = 0) die Vektoren und Kontraste sind. Und wenn wir eine Matrix von Einschränkungen erstellen , haben wir:c1c2G

G=[01010011]

Unsere Kontrastmatrix zum Testen vonH0:Gβ=0

Beispiel

Wir werden die gleichen Daten verwenden wie @ttnphns '"Benutzerdefiniertes Kontrastbeispiel" (Ich möchte erwähnen, dass die Theorie, die ich hier geschrieben habe, einige Modifikationen erfordert, um Modelle mit Interaktionen zu berücksichtigen. Deshalb habe ich dieses Beispiel gewählt bleiben die Definitionen der Kontraste und - wie ich es nenne - der Kontrastmatrix gleich).

Y<-c(0.226,0.6836,-1.772,-0.5085,1.1836,0.5633,0.8709,0.2858,0.4057,-1.156,1.5199,
     -0.1388,0.4865,-0.7653,0.3418,-1.273,1.4042,-0.1622,0.3347,-0.4576,0.7585,0.4084,
     1.4165,-0.5138,0.9725,0.2373,-1.562,1.3985,0.0397,-0.4689,-1.499,-0.7654,0.1442,
     -1.404,-0.2201,-1.166,0.7282,0.9524,-1.462,-0.3478,0.5679,0.5608,1.0338,-1.161,
     -0.1037,2.047,2.3613,0.1222)

F_<-c(1,1,1,1,1,1,1,1,1,1,2,2,2,2,2,2,2,3,3,3,3,3,3,3,3,3,3,3,4,4,4,4,4,4,4,4,4,
    5,5,5,5,5,5,5,5,5,5,5)

dummies.F<-model.matrix(~as.factor(F_)+0)

X_F<-cbind(1,dummies.F)

G_F<-matrix(0,4,6)
G_F[1,]<-c(0,3,3,-2,-2,-2)
G_F[2,]<-c(0,1,-1,0,0,0)
G_F[3,]<-c(0,0,0,2,-1,-1)
G_F[4,]<-c(0,0,0,0,1,-1)

 G 
 [,1] [,2] [,3] [,4] [,5] [,6]
[1,]    0    3    3   -2   -2   -2
[2,]    0    1   -1    0    0    0
[3,]    0    0    0    2   -1   -1
[4,]    0    0    0    0    1   -1

# Estimating Beta 

X_F.X_F<-t(X_F)%*%X_F
X_F.Y<-t(X_F)%*%Y

Betas_F<-ginv(X_F.X_F)%*%X_F.Y

# Final estimators:
G_F%*%Betas_F
           [,1]
[1,]  0.5888183
[2,] -0.1468029
[3,]  0.6115212
[4,] -0.9279030

Wir haben also die gleichen Ergebnisse.


Fazit

Es scheint mir , dass es nicht eine Definition von Konzept das , was ein Kontrastmatrix ist.

Wenn Sie die von Scheffe gegebene Definition des Kontrasts verwenden ("Die Varianzanalyse", Seite 66), werden Sie feststellen, dass es sich um eine schätzbare Funktion handelt, deren Koeffizienten sich zu Null summieren. Wenn wir also verschiedene Linearkombinationen der Koeffizienten unserer kategorialen Variablen testen möchten, verwenden wir die Matrix . Dies ist eine Matrix, in der sich die Zeilen zu Null addieren, mit der wir unsere Koeffizientenmatrix multiplizieren, um diese Koeffizienten schätzbar zu machen. Seine Zeilen geben die verschiedenen linearen Kombinationen von Kontrasten an, die wir testen, und seine Spalten geben an, welche Faktoren (Koeffizienten) verglichen werden.G

Da die obige Matrix ist, dass jede ihrer Zeilen aus einem Kontrastvektor (der sich zu 0 summiert) zusammensetzt, ist es für mich sinnvoll, eine "Kontrastmatrix" ( Monahan - "Ein Primer für lineare Modelle" - verwendet ebenfalls diese Terminologie.GG

Wie @ttnphns sehr schön erklärt, nennt Software etwas anderes "Kontrastmatrix", und ich konnte keine direkte Beziehung zwischen der Matrix und den integrierten Befehlen / Matrizen von SPSS (@ttnphns) finden ) oder R (Frage von OP), nur Ähnlichkeiten. Aber ich glaube, dass die hier präsentierte nette Diskussion / Zusammenarbeit helfen wird, solche Konzepte und Definitionen zu verdeutlichen.G


Bitte beschränken Sie diese Antwort nach Möglichkeit nicht nur auf anova. Das [anova] -Tag wurde von @amoeba hinzugefügt, als Sie meine Frage beantwortet haben, aber ich möchte nicht, dass die Antwort nur auf anova beschränkt wird.
Neugierig

Vielen Dank für ein so großes Update. Ich habe einige meiner Kommentare oben entfernt, die inzwischen veraltet waren (Sie können einige von Ihren entfernen, z. B. den ersten). Mittlerweile ist mir jedoch klar, dass "Kontrastmatrix" in Ihrem (und Monahans) Sinne etwas völlig anderes ist als "Kontrastmatrix" in dem Sinne, wie es in diesem R-Handbuch und auch in der ursprünglichen Frage hier verwendet wird (wie ttnphns es nennt) C-Matrix). Ich denke, es wäre sinnvoll, wenn Sie irgendwo in Ihrer Antwort eine Notiz über diesen Unterschied machen.
Amöbe sagt Reinstate Monica

Ich habe Probleme mit dem Verständnis ab Beispiel 1. Was ist ein in der Notation ? Was ist und was bedeuten die Spalten von ? Ist das ein konstanter Term (Spalte mit Einsen) und die beiden Dummy-Variablen? ijyijaiX
TTNPHNS

@ttnphns: indiziert die Gruppe (in Beispiel 1 gibt es zwei Gruppen), indiziert den Datenpunkt in jeder Gruppe. ist eine Konstante und sind Konstanten für jede Gruppe, so dass Gruppenmittelwerte sind (also kann ein Gesamtmittelwert sein und kann eine Abweichung des Gruppenmittels vom Gesamtmittelwert sein). Spalten sind Konstanten und zwei Dummies, ja. ijμαiμ+αiμαiX
Amöbe sagt Reinstate Monica

Vielen Dank für diese Antwort, aber ich werde wahrscheinlich nie in der Lage sein oder Zeit haben, sie zu verstehen. Und ich habe Mathematik studiert :-) Ich erwartete eine sehr einfache Definition als Antwort :-)
Curious

7

"Kontrastmatrix" ist kein Standardbegriff in der statistischen Literatur. Es kann [mindestens] zwei verwandte Bedeutungen haben:

  1. Eine Matrix, die eine bestimmte Nullhypothese in einer ANOVA-Regression angibt (unabhängig vom Kodierungsschema), wobei jede Zeile ein Kontrast ist . Dies ist keine Standardverwendung des Begriffs. Ich habe die Volltextsuche in Christensen Plane Answers to Complex Questions verwendet . Rutherford stellt ANOVA und ANCOVA vor. GLM-Ansatz und lineare Modelle von Rencher & Schaalje in der Statistik . Sie alle reden viel über "Kontraste", erwähnen aber niemals den Begriff "Kontrastmatrix". Doch wie @Gus_est gefunden, dieser Begriff wird in Monahan der verwendeten A Primer auf lineare Modelle .

  2. Eine Matrix, die das Codierungsschema für die Entwurfsmatrix in einer ANOVA-Regression angibt. So wird der Begriff "Kontrastmatrix" in der R-Community verwendet (siehe z. B. dieses Handbuch oder diese Hilfeseite ).

Die Antwort von @Gus_est untersucht die erste Bedeutung. Die Antwort von @ttnphns untersucht die zweite Bedeutung (er nennt sie "Kontrastkodierungsmatrix" und erörtert auch "Kontrastkoeffizientenmatrix", ein Standardbegriff in der SPSS-Literatur).


Meines Wissens nach fragten Sie nach der Bedeutung Nr. 2, daher hier die Definition:

"Kontrastmatrix" im Sinne von R ist Matrix wobei die Anzahl der Gruppen ist und angibt, wie die Gruppenzugehörigkeit in der Entwurfsmatrix codiert ist . Insbesondere wenn eine te Beobachtung zu der Gruppe gehört, ist .k×kCkXmiXmj=Cij

Anmerkung: In der Regel ist die erste Spalte von die aller Spalten (entsprechend der Intercept-Spalte in der Entwurfsmatrix). Wenn Sie R-Befehle wie aufrufen , erhalten Sie Matrix ohne diese erste Spalte.Ccontr.treatment(4)C


Ich plane, diese Antwort zu erweitern, um einen erweiterten Kommentar dazu abzugeben, wie die Antworten von @ttnphns und @Gus_est zusammenpassen.


The answer by @Gus_est explores the first meaning. The answer by @ttnphns explores the second meaning.Ich protestiere (Und ich bin überrascht zu hören - nachdem wir beide ein langes Gespräch über die Definitionen in den Kommentaren zu meiner Antwort geführt hatten.) Ich lud zwei Begriffe ein: Kontrastkoeffizientenmatrix (wobei Zeilen die Kontraste sind, lineare Kombination von Mitteln), auch bekannt als L-Matrix. und Kontrastcodierungsschemamatrix , auch bekannt als C-Matrix. Beide sind verwandt, ich habe beide diskutiert.
TTNPHNS

(Forts.) Kontrast coefficent L - Matrix ist ein Standardbegriff in ANOVA / General linearen Modell verwendet, in Texten und in SPSS Dokumenten, zum Beispiel . Die Codierungsschemata finden Sie hier .
TTNPHNS

You were asking about meaning #2Wir sind uns nicht sicher, welche Bedeutung der Begriff des OP hat. Das OP zeigte einige Beispiele für Kontrastcodierungsschemata. Dies bedeutet nicht unbedingt, dass er sich nicht für L-Matrizen interessierte.
TTNPHNS

1
Ich bin froh, dass wir jetzt irgendwie die gleiche Sprache sprechen. Zumindest scheint es so. Es wäre großartig für alle, insbesondere für Besucher, wenn Sie Ihre Antwort fertigstellen und zeigen würden, wie sich die Berichte von Gus und ttnphns in dasselbe Ergebnis umwandeln lassen. Wenn du es schaffen willst.
TTNPHNS

1
(Forts.) Natürlich ist die L-Matrix in beiden "Ansätzen" gleich (und es wird keine mysteriöse G-Matrix benötigt). Zeigen Sie, dass zwei äquivalente Pfade (L ist willkürlich, X ist Attrappen): L -> XC -> regression -> resultund X -> [regression -> adjusting to test for L] -> resultlassen Sie das gleiche Ergebnis. Der zweite Weg ist, wie ein ANOVA-Programm funktioniert (der in Klammern gesetzte Teil []); Der 1. Weg ist eine didaktische Demonstration, wie Kontraste nur über ein Regressionsprogramm lösbar sind.
TTNPHNS

3

Ein Kontrast vergleicht zwei Gruppen, indem er ihre Differenz mit Null vergleicht. In einer Kontrastmatrix sind die Zeilen die Kontraste und müssen zu Null addiert werden, die Spalten sind die Gruppen. Zum Beispiel:

Angenommen, Sie haben 4 Gruppen A, B, C, D, die Sie vergleichen möchten, dann wäre die Kontrastmatrix:

Gruppe: ABCD
A gegen B: 1 -1 0 0
C gegen D: 0 0 -1 1
A, B gegen D, C: 1 1 -1 -1

Aus dem Verständnis des industriellen Experimentierens lernen :

Wenn eine Gruppe von k zu vergleichenden Objekten mit k Durchschnittswerten von Untergruppen vorhanden ist, wird für diese Menge von k Objekten ein Kontrast durch eine beliebige Menge von k Koeffizienten definiert, [c1, c2, c3, ... cj, ..., ck ] diese Summe auf Null.

Dann sei C ein Kontrast,

C=c1μ1+c2μ2+...cjμj+...ckμk

C=j=1kcjμj

mit der Bedingung

j=1kcj=0

Die Untergruppen, denen ein Koeffizient von Null zugewiesen wurde, werden vom Vergleich ausgeschlossen. (*)

Es sind die Vorzeichen der Koeffizienten, die den Vergleich tatsächlich definieren, nicht die gewählten Werte. Die absoluten Werte der Koeffizienten können beliebig sein, solange die Summe der Koeffizienten Null ist.

(*) Jede Statistiksoftware gibt auf unterschiedliche Weise an, welche Untergruppen ausgeschlossen / eingeschlossen werden.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.