Pandas erhalten in jeder Gruppe die höchsten n Datensätze


161

Angenommen, ich habe Pandas DataFrame wie folgt:

>>> df = pd.DataFrame({'id':[1,1,1,2,2,2,2,3,4],'value':[1,2,3,1,2,3,4,1,1]})
>>> df
   id  value
0   1      1
1   1      2
2   1      3
3   2      1
4   2      2
5   2      3
6   2      4
7   3      1
8   4      1

Ich möchte einen neuen DataFrame mit den beiden besten Datensätzen für jede ID erhalten:

   id  value
0   1      1
1   1      2
3   2      1
4   2      2
7   3      1
8   4      1

Ich kann es mit der Nummerierung von Datensätzen innerhalb einer Gruppe nach der anderen tun, indem ich:

>>> dfN = df.groupby('id').apply(lambda x:x['value'].reset_index()).reset_index()
>>> dfN
   id  level_1  index  value
0   1        0      0      1
1   1        1      1      2
2   1        2      2      3
3   2        0      3      1
4   2        1      4      2
5   2        2      5      3
6   2        3      6      4
7   3        0      7      1
8   4        0      8      1
>>> dfN[dfN['level_1'] <= 1][['id', 'value']]
   id  value
0   1      1
1   1      2
3   2      1
4   2      2
7   3      1
8   4      1

Aber gibt es dafür einen effektiveren / eleganteren Ansatz? Außerdem gibt es einen eleganteren Ansatz für die Nummerierung von Datensätzen in jeder Gruppe (wie die SQL-Fensterfunktion row_number () ).



1
"top-n" bedeutet nicht "die n obersten / ersten / Kopfreihen", wie Sie suchen! Es bedeutet "die n Zeilen mit den größten Werten".
smci

Antworten:


180

Hast du versucht df.groupby('id').head(2)

Ausgabe generiert:

>>> df.groupby('id').head(2)
       id  value
id             
1  0   1      1
   1   1      2 
2  3   2      1
   4   2      2
3  7   3      1
4  8   4      1

(Beachten Sie, dass Sie je nach Ihren Daten möglicherweise vorher bestellen / sortieren müssen.)

BEARBEITEN: Verwenden Sie df.groupby('id').head(2).reset_index(drop=True), wie vom Fragesteller erwähnt, um den Multindex zu entfernen und die Ergebnisse zu reduzieren.

>>> df.groupby('id').head(2).reset_index(drop=True)
    id  value
0   1      1
1   1      2
2   2      1
3   2      2
4   3      1
5   4      1

1
Ja, ich denke das ist es. Irgendwie übersehen. Kennen Sie eine gute Möglichkeit, Datensätze innerhalb einer Gruppe zu nummerieren?
Roman Pekar

4
Um die Ausgabe zu erhalten, die ich brauche, habe ich auch hinzugefügt.reset_index(drop=True)
Roman Pekar

1
github.com/pydata/pandas/pull/5510 wurde gerade zusammengeführt; wird in 0.13 sein, neue Methode, um genau dies zu tun genannt cumcount(Nummerieren Sie die Datensätze in jeder Gruppe)
Jeff

1
@ Jeff gute Nachrichten. Ich wünschte, ich hätte mehr Zeit, um zu Pandas beizutragen :(
Roman Pekar

3
Um @dorvak zu vervollständigen, idtun Sie dies, wenn Sie die 2 kleinsten Werte pro möchten df.sort_values(['id', 'value'], axis=0).groupby('id').head(2). Ein anderes Beispiel, der größte Wert pro idist gegeben durch df.sort_values(['id', 'value'], axis=0).groupby('id').tail(1).
Elmex80s

129

Seit 0.14.1 können Sie jetzt nlargestund nsmallestauf einem groupbyObjekt:

In [23]: df.groupby('id')['value'].nlargest(2)
Out[23]: 
id   
1   2    3
    1    2
2   6    4
    5    3
3   7    1
4   8    1
dtype: int64

Es ist etwas seltsam, dass Sie dort auch den Originalindex erhalten, aber dies kann sehr nützlich sein, je nachdem, was Ihr Originalindex war .

Wenn Sie nicht daran interessiert sind, können Sie .reset_index(level=1, drop=True)es ganz loswerden.

(Hinweis: Ab 0.17.1 können Sie dies auch auf einem DataFrameGroupBy tun, aber im Moment funktioniert es nur mit Seriesund SeriesGroupBy.)


Gibt es einen Weg zu bekommen unique_limit(n)? Wie möchte ich die ersten n eindeutigen Werte? Wenn ich danach frage nlargest, wird das ganze df sortiert, was teuer sein kann
citynorman

2
Dies funktioniert nicht in Fällen, in denen Sie ein Aggregat für das Groupby erstellen. Zum Beispiel gibt df.groupby([pd.Grouper(freq='M'), 'A'])['B'].count().nlargest(5, 'B') dies nur die Top 5 der gesamten Serie zurück, nicht von jeder Gruppe
geominded

Die Aussage, dass dies jetzt auch auf DataFrameGroupBys möglich ist, scheint falsch zu sein, die verknüpfte Pull-Anforderung scheint nur nlargestzu einfachen DataFrames hinzuzufügen . Was ist eher unglücklich, denn was ist, wenn Sie mehr als eine Spalte auswählen möchten?
Oulenz

7

Manchmal ist das Sortieren der gesamten Daten sehr zeitaufwändig. Wir können zuerst gruppieren und für jede Gruppe Topk machen:

g = df.groupby(['id']).apply(lambda x: x.nlargest(topk,['value'])).reset_index(drop=True)
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.