Ich versuche, die Größe / Form eines DataFrame in PySpark herauszufinden. Ich sehe keine einzige Funktion, die dies kann.
In Python kann ich tun
data.shape()
Gibt es eine ähnliche Funktion in PySpark? Dies ist meine aktuelle Lösung, aber ich suche nach einem Element
row_number = data.count()
column_number = len(data.dtypes)
Die Berechnung der Spaltenanzahl ist nicht ideal ...