J'ai un tableau avec 8 colonnes et ~ 16,7 millions d'enregistrements. J'ai besoin d'exécuter un ensemble d'équations if-else sur les colonnes. J'ai écrit un script à l'aide du module UpdateCursor, mais après quelques millions d'enregistrements, il manque de mémoire. Je me demandais s'il y avait une meilleure façon de traiter ces 16,7 millions d'enregistrements.
import arcpy
arcpy.TableToTable_conversion("combine_2013", "D:/mosaic.gdb", "combo_table")
c_table = "D:/mosaic.gdb/combo_table"
fields = ['dev_agg', 'herb_agg','forest_agg','wat_agg', 'cate_2']
start_time = time.time()
print "Script Started"
with arcpy.da.UpdateCursor(c_table, fields) as cursor:
for row in cursor:
# row's 0,1,2,3,4 = dev, herb, forest, water, category
#classficiation water = 1; herb = 2; dev = 3; forest = 4
if (row[3] >= 0 and row[3] > row[2]):
row[4] = 1
elif (row[2] >= 0 and row[2] > row[3]):
row[4] = 4
elif (row[1] > 180):
row[4] = 2
elif (row[0] > 1):
row[4] = 3
cursor.updateRow(row)
end_time = time.time() - start_time
print "Script Complete - " + str(end_time) + " seconds"
MISE À JOUR # 1
J'ai exécuté le même script sur un ordinateur avec 40 Go de RAM (l'ordinateur d'origine n'avait que 12 Go de RAM). Il s'est terminé avec succès après ~ 16 heures. Je pense que 16 heures, c'est trop long, mais je n'ai jamais travaillé avec un si grand ensemble de données, donc je ne sais pas à quoi m'attendre. Le seul nouvel ajout à ce script est arcpy.env.parallelProcessingFactor = "100%"
. J'essaie deux méthodes suggérées (1) faire 1 million d'enregistrements par lots et (2) en utilisant SearchCursor et en écrivant des sorties sur csv. Je rendrai compte des progrès sous peu.
MISE À JOUR # 2
La mise à jour SearchCursor et CSV a parfaitement fonctionné! Je n'ai pas les temps d'exécution précis, je mettrai à jour le message quand je serai au bureau demain, mais je dirais que le temps d'exécution approximatif est de ~ 5-6 minutes, ce qui est assez impressionnant. Je ne m'y attendais pas. Je partage mon code non poli tous les commentaires et améliorations sont les bienvenus:
import arcpy, csv, time
from arcpy import env
arcpy.env.parallelProcessingFactor = "100%"
arcpy.TableToTable_conversion("D:/mosaic.gdb/combine_2013", "D:/mosaic.gdb", "combo_table")
arcpy.AddField_management("D:/mosaic.gdb/combo_table","category","SHORT")
# Table
c_table = "D:/mosaic.gdb/combo_table"
fields = ['wat_agg', 'dev_agg', 'herb_agg','forest_agg','category', 'OBJECTID']
# CSV
c_csv = open("D:/combine.csv", "w")
c_writer = csv.writer(c_csv, delimiter= ';',lineterminator='\n')
c_writer.writerow (['OID', 'CATEGORY'])
c_reader = csv.reader(c_csv)
start_time = time.time()
with arcpy.da.SearchCursor(c_table, fields) as cursor:
for row in cursor:
#skip file headers
if c_reader.line_num == 1:
continue
# row's 0,1,2,3,4,5 = water, dev, herb, forest, category, oid
#classficiation water = 1; dev = 2; herb = 3; ; forest = 4
if (row[0] >= 0 and row[0] > row[3]):
c_writer.writerow([row[5], 1])
elif (row[1] > 1):
c_writer.writerow([row[5], 2])
elif (row[2] > 180):
c_writer.writerow([row[5], 3])
elif (row[3] >= 0 and row[3] > row[0]):
c_writer.writerow([row[5], 4])
c_csv.close()
end_time = time.time() - start_time
print str(end_time) + " - Seconds"
MISE À JOUR # 3 Mise à jour finale. La durée totale d'exécution du script est de ~ 199,6 secondes / 3,2 minutes.