Ich habe zwei Implementierungen eines genetischen Algorithmus, die sich gleichwertig verhalten sollen. Aufgrund technischer Einschränkungen, die nicht gelöst werden können, ist ihre Ausgabe bei gleicher Eingabe jedoch nicht exakt gleich.
Trotzdem möchte ich zeigen, dass es keinen signifikanten Leistungsunterschied gibt.
Ich habe 20 Läufe mit der gleichen Konfiguration für jeden der beiden Algorithmen, wobei unterschiedliche anfängliche Zufallszahlen verwendet werden. Für jeden Lauf und jede Generation wurde die minimale Fehlerfähigkeit des besten Individuums in der Population aufgezeichnet. Der Algorithmus verwendet einen Elite-Erhaltungsmechanismus, so dass die Fitness des besten Individuums monoton abnimmt. Ein Lauf besteht aus 1000 Generationen, also habe ich 1000 Werte pro Lauf. Ich kann nicht mehr Daten erhalten, da die Berechnungen sehr teuer sind.
Welchen Test soll ich anwenden? Ein einfacher Weg wäre wahrscheinlich, nur den Fehler in den letzten Generationen zu vergleichen (wieder, welchen Test würde ich hier verwenden)? Man könnte aber auch darüber nachdenken, das Konvergenzverhalten im Allgemeinen zu vergleichen.