Hier ist ein Beispiel, wenn ich dies in mplus mache, das hilfreich sein und umfassendere Antworten ergänzen könnte:
Angenommen, ich habe 3 stetige Variablen und möchte anhand dieser Cluster identifizieren. Ich würde ein Mischungsmodell (genauer gesagt ein latentes Profilmodell) unter der Annahme einer bedingten Unabhängigkeit (die beobachteten Variablen sind unabhängig, wenn die Clustermitgliedschaft gegeben ist) wie folgt angeben:
Model:
%Overall%
v1* v2* v3*; ! Freely estimated variances
[v1 v2 v3]; ! Freely estimated means
Ich habe dieses Modell mehrere Male ausgeführt, wobei jedes Mal eine andere Anzahl von Clustern angegeben wurde, und die Lösung ausgewählt, die mir am besten gefällt (dies zu tun, ist ein umfangreiches Thema für sich).
Um dann k-means auszuführen, würde ich folgendes Modell angeben:
Model:
%Overall%
v1@0 v2@0 v3@0; ! Variances constrained as zero
[v1 v2 v3]; ! Freely estimated means
Die Klassenzugehörigkeit basiert also nur auf dem Abstand zu den Mitteln der beobachteten Variablen. Wie in anderen Antworten angegeben, haben die Abweichungen nichts damit zu tun.
Das Schöne an mplus ist, dass es sich um verschachtelte Modelle handelt und Sie direkt testen können, ob die Einschränkungen zu einer schlechteren Anpassung führen oder nicht. Außerdem können Sie Unterschiede in der Klassifizierung zwischen den beiden Methoden vergleichen. Beide Modelle können übrigens mithilfe eines EM-Algorithmus geschätzt werden, sodass sich der Unterschied mehr auf das Modell bezieht.
Wenn Sie im 3D-Raum denken, bedeutet die 3, dass Sie einen Punkt bilden ... und die Varianzen die drei Achsen eines Ellipsoids, die durch diesen Punkt verlaufen. Wenn alle drei Varianzen gleich sind, erhalten Sie eine Kugel.