Nach dem, was ich gelesen habe, werden genetische Algorithmen normalerweise (immer?) Auf Chromosomen von Bits angewendet. Wenn ein Problem darin besteht, eine Funktion zu maximieren, die ganzzahlige Werte annimmt, werden die ganzen Zahlen zuerst als Bits codiert.
Ist diese Zuordnung notwendig? Es scheint, dass Sie Chromosomen von ganzen Zahlen nehmen und Crossover und Mutation direkt anwenden könnten. Wenn ich also eine Funktion habe, die 35 Ganzzahl-Eingaben akzeptiert, kann ich die genetischen Operatoren einfach auf diese Ganzzahlen anwenden und nicht auf die 35xB-Bits (wobei B die Anzahl der Bits ist, die zum Codieren einer Ganzzahl benötigt werden). Gibt es einen Grund, warum dies nicht getan wird?
Vielleicht würde der Algorithmus darunter leiden, weil das Problem gröber definiert ist (das heißt, ein Problem kann mit kürzeren Chromosomen definiert werden, wenn wir keine Bits verwenden), aber ich bin gespannt, ob jemand eine bessere Antwort hat.