Ich möchte einen Algorithmus implementieren, der zwei Audiospuren synchronisiert.
Die beiden Spuren sind sehr ähnlich; Sie können sich vorstellen, dass es sich um zwei Tonaufnahmen (nicht unbedingt Musik) von zwei Mikrofonen im selben Raum handelt. Dies bedeutet, dass sie als ein Signal erscheinen, das zwei verschiedene (lineare) Kanäle mit unterschiedlichem additivem Rauschen durchläuft.
Ich verstehe, dass die erste Idee darin bestehen könnte, nach dem Höhepunkt ihrer Kreuzkorrelation zu suchen, aber ich bin besonders daran interessiert, Literatur zu diesem Thema zu finden, aber alle Artikel, die ich finden konnte, synchronisieren entweder zwei Musikspuren (unter Verwendung von Chroma-basierten Audiofunktionen) ) oder Audio mit einer Partitur synchronisieren. Sie gehen auch davon aus, dass es zu Zeitverzerrungen kommen kann, was in meinem Fall eine unnötige Annahme ist.