Une ligne! De plus, des indicateurs de performance pour les utilisateurs de Big Data.
Soit a pandas.DataFrame
qui a x longitude et y latitude comme suit:
df.head()
x y
0 229.617902 -73.133816
1 229.611157 -73.141299
2 229.609825 -73.142795
3 229.607159 -73.145782
4 229.605825 -73.147274
Convertissons le pandas.DataFrame
en un geopandas.GeoDataFrame
comme suit:
Importations de bibliothèques et améliorations rapides :
import geopandas as gpd
import shapely
shapely.speedups.enable() # enabled by default from version 1.6.0
Code + temps de référence sur un jeu de données de test que j'ai traîné:
#Martin's original version:
#%timeit 1.87 s ± 7.03 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
gdf = gpd.GeoDataFrame(df.drop(['x', 'y'], axis=1),
crs={'init': 'epsg:4326'},
geometry=[shapely.geometry.Point(xy) for xy in zip(df.x, df.y)])
#Pandas apply method
#%timeit 8.59 s ± 60.6 ms per loop (mean ± std. dev. of 7 runs, 1 loop each)
gdf = gpd.GeoDataFrame(df.drop(['x', 'y'], axis=1),
crs={'init': 'epsg:4326'},
geometry=df.apply(lambda row: shapely.geometry.Point((row.x, row.y)), axis=1))
L'utilisation pandas.apply
est étonnamment lente, mais peut être mieux adaptée à d'autres flux de travail (par exemple, sur des jeux de données plus volumineux utilisant la bibliothèque de masques):
Crédits à:
Quelques références de Work-In-Progress (à partir de 2017) pour la gestion de grands dask
ensembles de données: