Ich versuche, einen PySpark-Datenrahmen mit einem Zeilenwert zu filtern None
:
df.select('dt_mvmt').distinct().collect()
[Row(dt_mvmt=u'2016-03-27'),
Row(dt_mvmt=u'2016-03-28'),
Row(dt_mvmt=u'2016-03-29'),
Row(dt_mvmt=None),
Row(dt_mvmt=u'2016-03-30'),
Row(dt_mvmt=u'2016-03-31')]
und ich kann mit einem String-Wert richtig filtern:
df[df.dt_mvmt == '2016-03-31']
# some results here
aber das schlägt fehl:
df[df.dt_mvmt == None].count()
0
df[df.dt_mvmt != None].count()
0
Aber es gibt definitiv Werte für jede Kategorie. Was ist los?