Ich versuche, kleine quadratische Flecken in einem Bild "abzugleichen". Auf den ersten Blick erscheint es sinnvoll, einfach einen euklidischen Distanzstilvergleich zweier dieser Arrays durchzuführen, um ein "Ähnlichkeitsmaß" zu erhalten. Dies funktioniert in vielen Fällen einwandfrei (der "beste" Patch (niedrigster Wert) gemäß dieser Metrik ähnelt stark dem Abfrage-Patch). Es gibt jedoch viele Fälle, in denen dies zu einer sehr schlechten Übereinstimmung führt. Nehmen Sie zum Beispiel diese beiden Patch-Paare:
Zwei Flecken einer Mauer, Punktzahl 134 (dies ist die Summe der Komponenten der durchschnittlichen absoluten Pixeldifferenz):
Ein Stück Mauer, ein Stück Gras, Punktzahl 123!
Für einen Menschen stimmt das Gras "eindeutig" nicht mit dem Ziegel überein, aber diese Metrik sagt etwas anderes aus. Das Problem liegt nur in der lokalen statistischen Variation.
Wenn ich so etwas wie einen Histogrammvergleich verwende, verliere ich alle räumlichen Informationen vollständig - z. B. wenn ein Fleck oben Gras und unten Ziegel ist, würde es genau zu einem Fleck mit Gras unten und Ziegel oben (wieder) passen , ein weiteres "offensichtlich falsches" Spiel).
Gibt es eine Metrik, die diese beiden Ideen irgendwie zu einem vernünftigen Wert kombiniert, der für Paar 1 oben als "ähnlich" bewertet wird, für mein Beispiel eines Patches und seines vertikalen Spiegels jedoch nicht ähnlich ist?
Anregungen sind willkommen!