Ich trainiere ein künstliches neuronales Netzwerk (Backpropagation, Feed-Forward) mit nicht normal verteilten Daten. Neben dem quadratischen Mittelwertfehler wird in der Literatur häufig der Pearson-Korrelationskoeffizient zur Bewertung der Qualität des trainierten Netzes vorgeschlagen. Aber ist der Pearson-Korrelationskoeffizient angemessen, wenn die Trainingsdaten nicht normal verteilt sind? Wäre es nicht vernünftiger, ein rangbasiertes Korrelationsmaß zu verwenden, z. B. Spearman Rho?