Einzeiler! Plus einige Leistungsindikatoren für Big-Data-Mitarbeiter.
Bei a pandas.DataFrame
mit x Längen- und y Breitengrad wie folgt:
df.head()
x y
0 229.617902 -73.133816
1 229.611157 -73.141299
2 229.609825 -73.142795
3 229.607159 -73.145782
4 229.605825 -73.147274
Lassen Sie uns das konvertieren pandas.DataFrame
in ein geopandas.GeoDataFrame
wie folgt:
Bibliotheksimporte und formschöne Beschleunigung :
import geopandas as gpd
import shapely
shapely.speedups.enable() # enabled by default from version 1.6.0
Code + Benchmark-Zeiten auf einem Testdatensatz, den ich rumliegen habe:
#Martin's original version:
#%timeit 1.87 s ± 7.03 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
gdf = gpd.GeoDataFrame(df.drop(['x', 'y'], axis=1),
crs={'init': 'epsg:4326'},
geometry=[shapely.geometry.Point(xy) for xy in zip(df.x, df.y)])
#Pandas apply method
#%timeit 8.59 s ± 60.6 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
gdf = gpd.GeoDataFrame(df.drop(['x', 'y'], axis=1),
crs={'init': 'epsg:4326'},
geometry=df.apply(lambda row: shapely.geometry.Point((row.x, row.y)), axis=1))
Die Verwendung pandas.apply
ist überraschend langsam, passt jedoch möglicherweise besser zu einigen anderen Workflows (z. B. bei größeren Datensätzen mit der Dask-Bibliothek):
Anerkennung an:
Einige Work-In-Progress-Referenzen (Stand 2017) zum Umgang mit großen dask
Datenmengen: