Ma question est similaire à l' importation lente via osm2pgsql vers la base de données postgresql et à l' optimisation des importations osm2pgsql pour les données OSM, mais comme nous avons actuellement beaucoup de problèmes à importer un grand ensemble de données OSM, j'ouvre une nouvelle.
Quelle est la meilleure façon d'importer un grand ensemble de données (OSM Export of Europe) dans une base de données postgres?
Notre ordinateur a 32 Go de RAM ... il pourrait donc utiliser tout cela.
Nous avons essayé quelques paramètres, mais sans succès ... le dernier essai, nous avons utilisé le
osm2pgsql -c -S /usr/share/osm2pgsql/default.style --slim -d osm-europe -U postgres -C 25000 europe-latest.osm.pbf
Mais nous avons manqué de mémoire même si notre serveur dispose de 32 Go de RAM disponibles.
pending_ways failed: out of memory for query result
(7)
Error occurred, cleaning up
Comment pouvons-nous améliorer notre commande d'importation?
Même si cela prend plus de temps ... Mais nous devons importer les données dans notre base de données PostgreSQL.
Recommanderiez-vous d'utiliser un EC2 pour la tâche ou notre configuration devrait-elle fonctionner avec différents paramètres?