Ich glaube nicht, dass die Überprüfung der Annahmen eines Modells als P-Hacking / Fischen qualifiziert ist. Im ersten Artikel spricht der Autor von Analysten, die wiederholt Analysen für einen Datensatz durchführen und nur das beste Ergebnis melden. Mit anderen Worten, sie zeigen absichtlich ein voreingenommenes Bild dessen, was in den Daten geschieht.
Das Testen der Annahmen der Regression oder eines Modells ist obligatorisch. Es ist nicht zwingend erforderlich, die Daten wiederholt neu abzutasten, um das bestmögliche Ergebnis zu erzielen. Angenommen, die Forscher haben eine ausreichend große Stichprobe, um sie zu entnehmen, werden sie manchmal immer wieder neu abgetastet ... führen Sie immer wieder Hypothesentests durch ... bis sie das gewünschte Ergebnis erzielen. Daher P-Hacking. Sie hacken den p-Wert, indem sie nach dem gewünschten Ergebnis suchen, und werden nicht aufhören, bis sie es finden (Fischen). Selbst wenn sie von 100 Hypothesentests nur 1 mit einem signifikanten Ergebnis erreichen, geben sie den p-Wert an, der zu diesem bestimmten Test gehört, und lassen alle anderen weg.
Macht das Sinn? Wenn Sie die Modellannahmen überprüfen, stellen Sie sicher, dass das Modell für die vorhandenen Daten geeignet ist. Mit P-Hacking / Fischen durchsuchen Sie endlos die Daten / manipulieren die Studie, um das gewünschte Ergebnis zu erzielen.
Wenn Sie zum Zweck eines Mehrfachvergleichs ein Modell endlos durch den Schlamm laufen lassen, um einen Weg zu finden, es ungültig zu machen (oder zu validieren), werden Sie schließlich einen Weg finden. Das ist Angeln. Wenn Sie ein Modell validieren möchten, finden Sie einen Weg. Wenn Sie es ungültig machen möchten, werden Sie einen Weg finden. Der Schlüssel ist, offen zu sein und die Wahrheit herauszufinden - nicht nur zu sehen, was Sie sehen wollen.