In der linearen Regression wird angenommen, dass Beobachtungen einer Gaußschen Verteilung mit einem von den Prädiktorwerten abhängigen mittleren Parameter folgen. Wenn Sie den Mittelwert von den Beobachtungen subtrahieren, erhalten Sie den Fehler : Eine Gauß-Verteilung mit dem Mittelwert Null und unabhängig von den Prädiktorwerten - das heißt, Fehler bei einem Satz von Prädiktorwerten folgen derselben Verteilung.
In logistischen Regressionsbeobachtungen wird angenommen, dass einer Bernoulli-Verteilung † mit einem Mittelwertparameter (einer Wahrscheinlichkeit) folgt , der von den Prädiktorwerten abhängig ist. Für jeden gegebenen Prädiktorwert, der einen Mittelwert π bestimmt, gibt es also nur zwei mögliche Fehler: 1 - π , der mit der Wahrscheinlichkeit π auftritt , & 0 - π , der mit der Wahrscheinlichkeit 1 - π auftritt . Für andere Prädiktorwerte werden die Fehler 1 - π 'sein, die mit der Wahrscheinlichkeit π ' auftreten.y∈{0,1}π1−ππ0−π1−π1−π′π′& mit einer Wahrscheinlichkeit von auftretenden 1 - π ' . Daher gibt es keine gemeinsame Fehlerverteilung, die von den Prädiktorwerten unabhängig ist, weshalb die Leute sagen, dass kein Fehlerterm existiert (1).0−π′1−π′
„Der Fehlerterm hat eine Binomialverteilung“ (2) ist nur sloppiness- „Gauß'sche Modelle Gaußschen Fehler haben, ergo Binomialmodelle hat binomische errors“. (Oder, wie @whuber hervorhebt, es könnte so verstanden werden, dass "der Unterschied zwischen einer Beobachtung und ihrer Erwartung eine Binomialverteilung hat, die durch die Erwartung übersetzt wird".)
"The error term has a logistic distribution" (3) arises from the derivation of logistic regression from the model where you observe whether or not a latent variable with errors following a logistic distribution exceeds some threshold. So it's not the same error defined above. (It would seem an odd thing to say IMO outside that context, or without explicit reference to the latent variable.)
† If you have k observations with the same predictor values, giving the same probability π for each, then their sum ∑y follows a binomial distribution with probability π and no. trials k. Considering ∑y−kπ as the error leads to the same conclusions.