Ich habe ein paar Gespräche von Nicht-Statistikern gesehen, in denen sie Korrelationsmaße offenbar neu erfinden, indem sie gegenseitige Informationen anstelle von Regression (oder gleichwertigen / eng verwandten statistischen Tests) verwenden.
Ich nehme an, es gibt einen guten Grund, warum Statistiker diesen Ansatz nicht verfolgen. Mein Laie versteht, dass Schätzer von Entropie / gegenseitiger Information problematisch und instabil sind. Ich gehe davon aus, dass die Stromversorgung auch problematisch ist: Sie versuchen, dies zu umgehen, indem sie behaupten, dass sie kein parametrisches Testframework verwenden. Normalerweise stört diese Art von Arbeit nicht die Leistungsberechnung oder sogar das Vertrauen / die glaubwürdigen Intervalle.
Aber um die Position eines Teufels zu vertreten, ist langsame Konvergenz eine so große Sache, wenn die Datensätze extrem groß sind? Manchmal scheinen diese Methoden auch in dem Sinne zu "funktionieren", dass die Assoziationen durch Folgestudien validiert werden. Was ist die beste Kritik gegen die Verwendung gegenseitiger Informationen als Assoziationsmaß und warum wird sie in der statistischen Praxis nicht häufig verwendet?
edit: Gibt es auch gute Papiere, die diese Themen behandeln?