Finden lokaler Maxima / Minima mit Numpy in einem 1D-Numpy-Array


116

Können Sie eine Modulfunktion von numpy / scipy vorschlagen, die lokale Maxima / Minima in einem 1D-numpy-Array findet? Natürlich ist der einfachste Ansatz, einen Blick auf die nächsten Nachbarn zu werfen, aber ich hätte gerne eine akzeptierte Lösung, die Teil der numpy Distribution ist.



1
Nein, das ist in 2D (ich spreche von 1D) und beinhaltet benutzerdefinierte Funktionen. Ich habe meine eigene einfache Implementierung, aber ich habe mich gefragt, ob es eine bessere gibt, die mit Numpy / Scipy-Modulen geliefert wird.
Navi

Vielleicht könnten Sie die Frage dahingehend aktualisieren, dass (1) Sie ein 1d-Array haben und (2) welche Art von lokalem Minimum Sie suchen. Nur ein Eintrag kleiner als die beiden benachbarten Einträge?
Sven Marnach

1
Sie können einen Blick auf scipy.signal.find_peaks_cwt werfen, wenn Sie von Daten mit Rauschen sprechen
Lakshay Garg

Antworten:


66

Wenn Sie nach allen Einträgen im 1d-Array suchen, die akleiner als ihre Nachbarn sind, können Sie es versuchen

numpy.r_[True, a[1:] < a[:-1]] & numpy.r_[a[:-1] < a[1:], True]

Sie können Ihr Array auch vor diesem Schritt mit glättennumpy.convolve() .

Ich glaube nicht, dass es dafür eine spezielle Funktion gibt.


Hmm, warum sollte ich glätten müssen? Lärm entfernen? Das hört sich interessant an. Es scheint mir, dass ich in Ihrem Beispielcode eine andere Ganzzahl anstelle von 1 verwenden könnte. Ich dachte auch daran, Gradienten zu berechnen. Wie auch immer, wenn es keine Funktion gibt, ist das schade.
Navi

1
@Navi: Das Problem ist, dass der Begriff "lokales Minimum" von Anwendungsfall zu Anwendungsfall sehr unterschiedlich ist, so dass es schwierig ist, eine "Standard" -Funktion für diesen Zweck bereitzustellen. Durch die Glättung wird mehr als nur der nächste Nachbar berücksichtigt. Die Verwendung einer anderen Ganzzahl anstelle von 1, z. B. 3, wäre seltsam, da nur das drittnächste Element in beide Richtungen berücksichtigt würde, nicht jedoch die direkten Nachbarn.
Sven Marnach

1
@Sven Marnach: Das Rezept, das Sie verknüpfen, verzögert das Signal. Es gibt ein zweites Rezept , das Filtfilt von scipy.signal verwendet
Bobrobbob

2
Nur um es, das Ersetzen <mit >geben Ihnen die lokalen Maxima anstelle der Minima
DarkCygnus

1
@SvenMarnach Ich habe Ihre obige Lösung verwendet, um mein hier veröffentlichtes Problem zu lösen. Stackoverflow.com/questions/57403659/… aber ich habe eine Ausgabe erhalten. [False False]Was könnte das Problem hier sein?
Msquare

220

In SciPy> = 0,11

import numpy as np
from scipy.signal import argrelextrema

x = np.random.random(12)

# for local maxima
argrelextrema(x, np.greater)

# for local minima
argrelextrema(x, np.less)

Produziert

>>> x
array([ 0.56660112,  0.76309473,  0.69597908,  0.38260156,  0.24346445,
    0.56021785,  0.24109326,  0.41884061,  0.35461957,  0.54398472,
    0.59572658,  0.92377974])
>>> argrelextrema(x, np.greater)
(array([1, 5, 7]),)
>>> argrelextrema(x, np.less)
(array([4, 6, 8]),)

Beachten Sie, dass dies die Indizes von x sind, die lokal max / min sind. Um die Werte zu erhalten, versuchen Sie:

>>> x[argrelextrema(x, np.greater)[0]]

scipy.signalbietet auch argrelmaxund argrelminzum Finden von Maxima bzw. Minima.


1
Welche Bedeutung hat 12?
Marshmallow

7
@ Marshmallow: np.random.random(12)Erzeugt 12 Zufallswerte, die zur Demonstration der Funktion verwendet werden argrelextrema.
Sebix

2
Wenn die Eingabe ist test02=np.array([10,4,4,4,5,6,7,6]), dann funktioniert es nicht. Die aufeinanderfolgenden Werte werden nicht als lokale Minima erkannt.
Leos313

1
Danke, @Cleb. Ich möchte auf andere Probleme hinweisen: Was ist mit den Extrempunkten des Arrays? Das erste Element ist ebenfalls ein lokales Maximum, da das letzte Element des Arrays ebenfalls ein lokales Minimum ist. Außerdem wird nicht zurückgegeben, wie viele aufeinanderfolgende Werte begründet sind. Allerdings habe ich vorgeschlagen , eine Lösung in den Code dieser Frage hier . Danke dir!!
Leos313

1
Vielen Dank, dies ist eine der besten Lösungen, die ich bisher gefunden habe
Noufal E

37

Für Kurven mit nicht zu viel Rauschen empfehle ich das folgende kleine Code-Snippet:

from numpy import *

# example data with some peaks:
x = linspace(0,4,1e3)
data = .2*sin(10*x)+ exp(-abs(2-x)**2)

# that's the line, you need:
a = diff(sign(diff(data))).nonzero()[0] + 1 # local min+max
b = (diff(sign(diff(data))) > 0).nonzero()[0] + 1 # local min
c = (diff(sign(diff(data))) < 0).nonzero()[0] + 1 # local max


# graphical output...
from pylab import *
plot(x,data)
plot(x[b], data[b], "o", label="min")
plot(x[c], data[c], "o", label="max")
legend()
show()

Das +1ist wichtig, weil diffdie ursprüngliche Indexnummer reduziert wird.


1
nette Verwendung von verschachtelten Numpy-Funktionen! aber beachten Sie, dass dies Maxima an beiden Enden des Arrays verfehlt :)
Danodonovan

2
Dies wirkt auch seltsam, wenn sich wiederholende Werte vorhanden sind. Wenn Sie beispielsweise das Array nehmen [1, 2, 2, 3, 3, 3, 2, 2, 1], liegen die lokalen Maxima offensichtlich irgendwo zwischen den 3en in der Mitte. Wenn Sie jedoch die von Ihnen bereitgestellten Funktionen ausführen, erhalten Sie Maxima bei den Indizes 2,6 und Minimas bei den Indizes 1,3,5,7, was für mich wenig sinnvoll ist.
Korem

5
Um dies zu vermeiden, +1anstatt zu np.diff()verwenden np.gradient().
Ankostis

Ich weiß, dass dieser Thread Jahre alt ist, aber es lohnt sich hinzuzufügen, dass Sie, wenn Ihre Kurve zu verrauscht ist, immer zuerst die Tiefpassfilterung zum Glätten versuchen können. Zumindest für mich beziehen sich die meisten meiner lokalen Max / Min-Anwendungen auf globale Max / Min in einem bestimmten Gebiet (z. B. die großen Gipfel und Täler, nicht jede Variation der Daten)
marcman

25

Ein anderer Ansatz (mehr Wörter, weniger Code), der helfen kann:

Die Orte der lokalen Maxima und Minima sind auch die Orte der Nulldurchgänge der ersten Ableitung. Es ist im Allgemeinen viel einfacher, Nulldurchgänge zu finden, als lokale Maxima und Minima direkt zu finden.

Leider neigt die erste Ableitung dazu, das Rauschen zu "verstärken". Wenn also in den Originaldaten signifikantes Rauschen vorhanden ist, wird die erste Ableitung am besten erst verwendet, nachdem auf die Originaldaten ein gewisser Grad an Glättung angewendet wurde.

Da das Glätten im einfachsten Sinne ein Tiefpassfilter ist, wird das Glätten häufig am besten (am einfachsten) unter Verwendung eines Faltungskerns durchgeführt, und das "Formen" dieses Kernels kann eine überraschende Menge an Funktionen zum Erhalten / Verbessern von Merkmalen bereitstellen . Der Prozess des Findens eines optimalen Kernels kann mit einer Vielzahl von Mitteln automatisiert werden, aber das Beste kann einfache Brute Force sein (viel schnell, um kleine Kernel zu finden). Ein guter Kernel wird (wie beabsichtigt) die Originaldaten massiv verzerren, aber NICHT die Position der interessierenden Spitzen / Täler beeinflussen.

Glücklicherweise kann ziemlich oft ein geeigneter Kernel über eine einfache SWAG ("fundierte Vermutung") erstellt werden. Die Breite des Glättungskerns sollte etwas breiter sein als der breiteste erwartete "interessante" Peak in den Originaldaten, und seine Form ähnelt diesem Peak (einem einskalierten Wavelet). Für mittelschonende Kernel (was ein guter Glättungsfilter sein sollte) sollte die Summe der Kernelelemente genau gleich 1,00 sein, und der Kernel sollte symmetrisch zu seiner Mitte sein (was bedeutet, dass er eine ungerade Anzahl von Elementen hat.

Bei einem optimalen Glättungskern (oder einer kleinen Anzahl von Kerneln, die für unterschiedliche Dateninhalte optimiert sind) wird der Grad der Glättung zu einem Skalierungsfaktor für (den "Gewinn") des Faltungskerns.

Die Bestimmung des "richtigen" (optimalen) Glättungsgrades (Faltungskernverstärkung) kann sogar automatisiert werden: Vergleichen Sie die Standardabweichung der Daten der ersten Ableitung mit der Standardabweichung der geglätteten Daten. Wie sich das Verhältnis der beiden Standardabweichungen mit Änderungen des Glättungsgrads ändert, kann verwendet werden, um effektive Glättungswerte vorherzusagen. Ein paar manuelle Datenläufe (die wirklich repräsentativ sind) sollten alles sein, was benötigt wird.

Alle oben aufgeführten früheren Lösungen berechnen die erste Ableitung, behandeln sie jedoch weder als statistisches Maß, noch versuchen die oben genannten Lösungen, die Glättung von Merkmalen zu erhalten / zu verbessern (um subtilen Spitzen zu helfen, über das Rauschen zu "springen").

Schließlich die schlechte Nachricht: Das Finden von "echten" Peaks wird zu einem königlichen Schmerz, wenn das Rauschen auch Merkmale aufweist, die wie echte Peaks aussehen (überlappende Bandbreite). Die nächste komplexere Lösung besteht im Allgemeinen darin, einen längeren Faltungskern (eine "breitere Kernelöffnung") zu verwenden, der die Beziehung zwischen benachbarten "realen" Peaks (wie minimale oder maximale Raten für das Auftreten von Peaks) berücksichtigt, oder mehrere zu verwenden Faltungsdurchläufe werden mit Kerneln unterschiedlicher Breite durchgeführt (aber nur, wenn es schneller ist: Es ist eine grundlegende mathematische Wahrheit, dass nacheinander durchgeführte lineare Faltungen immer zusammen zu einer einzigen Faltung gefaltet werden können). Es ist jedoch oft viel einfacher, zuerst eine Folge nützlicher Kernel (unterschiedlicher Breite) zu finden und sie zusammenzufalten, als den endgültigen Kernel in einem einzigen Schritt direkt zu finden.

Hoffentlich bietet dies genügend Informationen, damit Google (und möglicherweise ein guter Statistiktext) die Lücken füllen kann. Ich wünschte wirklich, ich hätte die Zeit, ein funktionierendes Beispiel oder einen Link zu einem zu liefern. Wenn jemand online auf eines stößt, poste es bitte hier!


21

Ab SciPy Version 1.1 können Sie auch find_peaks verwenden . Nachfolgend finden Sie zwei Beispiele aus der Dokumentation.

Mit dem heightArgument können alle Maxima über einem bestimmten Schwellenwert ausgewählt werden (in diesem Beispiel alle nicht negativen Maxima; dies kann sehr nützlich sein, wenn man sich mit einer verrauschten Grundlinie befassen muss; wenn Sie Minima finden möchten, multiplizieren Sie einfach Ihre Eingabe von -1):

import matplotlib.pyplot as plt
from scipy.misc import electrocardiogram
from scipy.signal import find_peaks
import numpy as np

x = electrocardiogram()[2000:4000]
peaks, _ = find_peaks(x, height=0)
plt.plot(x)
plt.plot(peaks, x[peaks], "x")
plt.plot(np.zeros_like(x), "--", color="gray")
plt.show()

Geben Sie hier die Bildbeschreibung ein

Ein weiteres äußerst hilfreiches Argument ist distance, das den Mindestabstand zwischen zwei Spitzen definiert:

peaks, _ = find_peaks(x, distance=150)
# difference between peaks is >= 150
print(np.diff(peaks))
# prints [186 180 177 171 177 169 167 164 158 162 172]

plt.plot(x)
plt.plot(peaks, x[peaks], "x")
plt.show()

Geben Sie hier die Bildbeschreibung ein


10

Warum nicht die in Scipy integrierte Funktion signal.find_peaks_cwt verwenden , um die Arbeit zu erledigen?

from scipy import signal
import numpy as np

#generate junk data (numpy 1D arr)
xs = np.arange(0, np.pi, 0.05)
data = np.sin(xs)

# maxima : use builtin function to find (max) peaks
max_peakind = signal.find_peaks_cwt(data, np.arange(1,10))

# inverse  (in order to find minima)
inv_data = 1/data
# minima : use builtin function fo find (min) peaks (use inversed data)
min_peakind = signal.find_peaks_cwt(inv_data, np.arange(1,10))

#show results
print "maxima",  data[max_peakind]
print "minima",  data[min_peakind]

Ergebnisse:

maxima [ 0.9995736]
minima [ 0.09146464]

Grüße


7
Warum nicht einfach mit -1 multiplizieren, um von Maxima zu Minima zu gelangen, anstatt zu dividieren (mit möglichem Genauigkeitsverlust)?
Livius

Ich habe versucht, '1 / data' in 'data * -1' zu ändern, aber dann wird ein Fehler ausgegeben. Können Sie uns mitteilen, wie Sie Ihre Methode implementieren?
Ein STEFANI

Vielleicht, weil wir nicht verlangen möchten, dass Endbenutzer zusätzlich scipy installieren.
Damian Yerrick

5

Update: Ich war mit dem Farbverlauf nicht zufrieden und fand es daher zuverlässiger numpy.diff. Bitte lassen Sie mich wissen, ob es tut, was Sie wollen.

In Bezug auf das Problem des Rauschens besteht das mathematische Problem darin, Maxima / Minima zu lokalisieren, wenn wir das Rauschen betrachten wollen, können wir so etwas wie Faltung verwenden, das zuvor erwähnt wurde.

import numpy as np
from matplotlib import pyplot

a=np.array([10.3,2,0.9,4,5,6,7,34,2,5,25,3,-26,-20,-29],dtype=np.float)

gradients=np.diff(a)
print gradients


maxima_num=0
minima_num=0
max_locations=[]
min_locations=[]
count=0
for i in gradients[:-1]:
        count+=1

    if ((cmp(i,0)>0) & (cmp(gradients[count],0)<0) & (i != gradients[count])):
        maxima_num+=1
        max_locations.append(count)     

    if ((cmp(i,0)<0) & (cmp(gradients[count],0)>0) & (i != gradients[count])):
        minima_num+=1
        min_locations.append(count)


turning_points = {'maxima_number':maxima_num,'minima_number':minima_num,'maxima_locations':max_locations,'minima_locations':min_locations}  

print turning_points

pyplot.plot(a)
pyplot.show()

Wissen Sie, wie dieser Gradient berechnet wird? Wenn Sie verrauschte Daten haben, ändert sich der Gradient wahrscheinlich stark, aber das muss nicht bedeuten, dass es ein Maximum / Min gibt.
Navi

Ja, ich weiß, aber verrauschte Daten sind ein anderes Problem. Dafür benutze ich wohl Convolve.
Mike Vella

Ich brauchte etwas Ähnliches für ein Projekt, an dem ich arbeitete, und verwendete die oben erwähnte numpy.diff-Methode. Ich dachte, es könnte hilfreich sein zu erwähnen, dass der obige Code für meine Daten einige Maxima und Minima verfehlte, indem er den Mittelbegriff in beiden änderte Wenn Aussagen zu <= bzw.> =, konnte ich alle Punkte erfassen.

5

Während diese Frage wirklich alt ist. Ich glaube, es gibt einen viel einfacheren Ansatz bei Numpy (einem Einzeiler).

import numpy as np

list = [1,3,9,5,2,5,6,9,7]

np.diff(np.sign(np.diff(list))) #the one liner

#output
array([ 0, -2,  0,  2,  0,  0, -2])

Um ein lokales Maximum oder Min zu finden, möchten wir im Wesentlichen herausfinden, wann sich die Differenz zwischen den Werten in der Liste (3-1, 9-3 ...) von positiv zu negativ (max) oder negativ zu positiv (min) ändert. Deshalb finden wir zuerst den Unterschied. Dann finden wir das Zeichen, und dann finden wir die Zeichenänderungen, indem wir den Unterschied erneut nehmen. (Ähnlich wie bei einer ersten und zweiten Ableitung im Kalkül haben nur wir diskrete Daten und keine stetige Funktion.)

Die Ausgabe in meinem Beispiel enthält nicht die Extrema (den ersten und den letzten Wert in der Liste). Ebenso wie beim Kalkül haben Sie, wenn die zweite Ableitung negativ ist, max und wenn sie positiv ist, haben Sie eine min.

Somit haben wir folgendes Matchup:

[1,  3,  9,  5,  2,  5,  6,  9,  7]
    [0, -2,  0,  2,  0,  0, -2]
        Max     Min         Max

1
Ich denke, dass diese (gute!) Antwort die gleiche ist wie die Antwort von RC aus dem Jahr 2012? Er bietet drei einzeilige Lösungen an, je nachdem, ob der Anrufer Minuten, Höchstwerte oder beides wünscht, wenn ich seine Lösung richtig lese.
Brandon Rhodes

3

Keine dieser Lösungen funktionierte für mich, da ich auch Spitzenwerte im Zentrum sich wiederholender Werte finden wollte. zum Beispiel in

ar = np.array([0,1,2,2,2,1,3,3,3,2,5,0])

Die Antwort sollte sein

array([ 3,  7, 10], dtype=int64)

Ich habe das mit einer Schleife gemacht. Ich weiß, dass es nicht super sauber ist, aber es erledigt den Job.

def findLocalMaxima(ar):
# find local maxima of array, including centers of repeating elements    
maxInd = np.zeros_like(ar)
peakVar = -np.inf
i = -1
while i < len(ar)-1:
#for i in range(len(ar)):
    i += 1
    if peakVar < ar[i]:
        peakVar = ar[i]
        for j in range(i,len(ar)):
            if peakVar < ar[j]:
                break
            elif peakVar == ar[j]:
                continue
            elif peakVar > ar[j]:
                peakInd = i + np.floor(abs(i-j)/2)
                maxInd[peakInd.astype(int)] = 1
                i = j
                break
    peakVar = ar[i]
maxInd = np.where(maxInd)[0]
return maxInd 

1
import numpy as np
x=np.array([6,3,5,2,1,4,9,7,8])
y=np.array([2,1,3,5,3,9,8,10,7])
sortId=np.argsort(x)
x=x[sortId]
y=y[sortId]
minm = np.array([])
maxm = np.array([])
i = 0
while i < length-1:
    if i < length - 1:
        while i < length-1 and y[i+1] >= y[i]:
            i+=1

        if i != 0 and i < length-1:
            maxm = np.append(maxm,i)

        i+=1

    if i < length - 1:
        while i < length-1 and y[i+1] <= y[i]:
            i+=1

        if i < length-1:
            minm = np.append(minm,i)
        i+=1


print minm
print maxm

minmund maxmenthalten Indizes von Minima bzw. Maxima. Bei einem großen Datensatz werden viele Maxima / Minimas angegeben. In diesem Fall wird die Kurve zuerst geglättet und dann dieser Algorithmus angewendet.


das sieht interessant aus. Keine Bibliotheken. Wie funktioniert es?
John Ktejik

1
Durchqueren Sie die Kurve vom Startpunkt aus und prüfen Sie, ob Sie kontinuierlich nach oben oder unten gehen. Wenn Sie von oben nach unten wechseln, erhalten Sie ein Maximum. Wenn Sie von unten nach oben gehen, erhalten Sie ein Minimum.
Prtkp

1

Eine andere Lösung, die im Wesentlichen einen erweiterten Operator verwendet:

import numpy as np
from scipy.ndimage import rank_filter

def find_local_maxima(x):
   x_dilate = rank_filter(x, -1, size=3)
   return x_dilate == x

und für die Minima:

def find_local_minima(x):
   x_erode = rank_filter(x, -0, size=3)
   return x_erode == x

Auch von können scipy.ndimageSie rank_filter(x, -1, size=3)mit grey_dilationund rank_filter(x, 0, size=3)mit ersetzen grey_erosion. Dies erfordert keine lokale Sortierung und ist daher etwas schneller.


es funktioniert richtig für dieses Problem. Hier ist die Lösung perfekt (+1)
Leos313

0

Noch einer:


def local_maxima_mask(vec):
    """
    Get a mask of all points in vec which are local maxima
    :param vec: A real-valued vector
    :return: A boolean mask of the same size where True elements correspond to maxima. 
    """
    mask = np.zeros(vec.shape, dtype=np.bool)
    greater_than_the_last = np.diff(vec)>0  # N-1
    mask[1:] = greater_than_the_last
    mask[:-1] &= ~greater_than_the_last
    return mask
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.