Kürzlich habe ich erfahren, dass eine Möglichkeit, bessere Lösungen für ML-Probleme zu finden, in der Erstellung von Features besteht. Man kann das zum Beispiel durch Summieren von zwei Merkmalen tun.
Zum Beispiel besitzen wir zwei Funktionen "Angriff" und "Verteidigung" einer Art Held. Wir erstellen dann ein zusätzliches Feature namens "total", das eine Summe aus "Angriff" und "Verteidigung" ist. Was mir jetzt seltsam erscheint, ist, dass selbst harte "Angriffe" und "Verteidigungen" fast perfekt mit "Gesamt" korrelieren und wir trotzdem nützliche Informationen erhalten.
Was ist die Mathematik dahinter? Oder argumentiere ich falsch?
Ist das kein Problem für Klassifikatoren wie kNN, dass "total" immer größer ist als "attack" oder "defense"? Daher werden wir auch nach der Standardisierung Features haben, die Werte aus verschiedenen Bereichen enthalten.