Wie @ user2974951 in einem Kommentar sagt, kann es Aberglaube sein, dass eine Normalverteilung irgendwie besser ist. Vielleicht haben sie die falsche Vorstellung, dass sie, da normale Daten das Ergebnis vieler additiver Fehler sind, die resultierenden Zahlen als additive Fehler behandeln können, wenn sie ihre Daten als normal erzwingen. Oder die erste Statistik-Technik, die sie lernten, war die OLS-Regression und etwas über Normal war eine Annahme ...
Normalität ist im Allgemeinen keine Voraussetzung. Ob es hilfreich ist, hängt jedoch davon ab, was das Modell mit den Daten macht.
Beispielsweise sind Finanzdaten häufig logarithmisch normal - dh sie weisen einen multiplikativen (prozentualen) Fehler auf. Variations-Autoencoder verwenden eine Normalverteilung am Engpass, um Glätte und Einfachheit zu erzwingen. Sigmoid-Funktionen funktionieren am natürlichsten mit normalen Daten. Mischungsmodelle verwenden häufig eine Mischung aus Normalen. (Wenn Sie davon ausgehen können, dass es normal ist, benötigen Sie nur zwei Parameter, um es vollständig zu definieren, und diese Parameter sind in ihrer Bedeutung ziemlich intuitiv.)
Es könnte auch sein, dass wir eine unimodale, symmetrische Verteilung für unsere Modellierung wollen und das Normal ist das. (Und Transformationen zu „Normal“ sind oft nicht streng normal, sondern nur symmetrischer.)
Normalität kann einige Berechnungen für Sie vereinfachen und mit Ihrer Vorstellung des Prozesses zur Generierung Ihrer Daten übereinstimmen: Die meisten Ihrer Daten befinden sich in der Mitte mit relativ selteneren niedrigen oder hohen Werten, die von Interesse sind.
Aber mein Eindruck ist, dass es Frachtkult in der Natur ist