У мене є таблиця з 8 колонками і ~ 16,7 мільйона записів. Мені потрібно запустити набір рівнянь if-else на стовпці. Я написав сценарій за допомогою модуля UpdateCursor, але після кількох мільйонів записів у нього не вистачає пам'яті. Мені було цікаво, чи є кращий спосіб опрацювати ці 16,7 мільйона записів.
import arcpy
arcpy.TableToTable_conversion("combine_2013", "D:/mosaic.gdb", "combo_table")
c_table = "D:/mosaic.gdb/combo_table"
fields = ['dev_agg', 'herb_agg','forest_agg','wat_agg', 'cate_2']
start_time = time.time()
print "Script Started"
with arcpy.da.UpdateCursor(c_table, fields) as cursor:
for row in cursor:
# row's 0,1,2,3,4 = dev, herb, forest, water, category
#classficiation water = 1; herb = 2; dev = 3; forest = 4
if (row[3] >= 0 and row[3] > row[2]):
row[4] = 1
elif (row[2] >= 0 and row[2] > row[3]):
row[4] = 4
elif (row[1] > 180):
row[4] = 2
elif (row[0] > 1):
row[4] = 3
cursor.updateRow(row)
end_time = time.time() - start_time
print "Script Complete - " + str(end_time) + " seconds"
ОНОВЛЕННЯ №1
Я запустив той самий сценарій на комп’ютері з 40 Гб оперативної пам’яті (у початкового комп'ютера було всього 12 ГБ оперативної пам’яті). Він успішно завершився через ~ 16 годин. Я вважаю, що 16 годин занадто довго, але я ніколи не працював з таким великим набором даних, тому не знаю, що очікувати. Єдиним новим доповненням до цього сценарію є arcpy.env.parallelProcessingFactor = "100%"
. Я намагаюсь два запропоновані методи (1) робити 1 мільйон записів партіями та (2) за допомогою SearchCursor та записувати висновки в csv. Я незабаром звітую про прогрес.
ОНОВЛЕННЯ №2
Оновлення SearchCursor та CSV працювали чудово! У мене немає точних термінів виконання, я оновлю посаду, коли буду завтра, але скажу, що приблизний час роботи становить ~ 5-6 хвилин, що досить вражає. Я цього не очікував. Я ділюсь своїм неполірованим кодом, будь-які коментарі та покращення вітаються:
import arcpy, csv, time
from arcpy import env
arcpy.env.parallelProcessingFactor = "100%"
arcpy.TableToTable_conversion("D:/mosaic.gdb/combine_2013", "D:/mosaic.gdb", "combo_table")
arcpy.AddField_management("D:/mosaic.gdb/combo_table","category","SHORT")
# Table
c_table = "D:/mosaic.gdb/combo_table"
fields = ['wat_agg', 'dev_agg', 'herb_agg','forest_agg','category', 'OBJECTID']
# CSV
c_csv = open("D:/combine.csv", "w")
c_writer = csv.writer(c_csv, delimiter= ';',lineterminator='\n')
c_writer.writerow (['OID', 'CATEGORY'])
c_reader = csv.reader(c_csv)
start_time = time.time()
with arcpy.da.SearchCursor(c_table, fields) as cursor:
for row in cursor:
#skip file headers
if c_reader.line_num == 1:
continue
# row's 0,1,2,3,4,5 = water, dev, herb, forest, category, oid
#classficiation water = 1; dev = 2; herb = 3; ; forest = 4
if (row[0] >= 0 and row[0] > row[3]):
c_writer.writerow([row[5], 1])
elif (row[1] > 1):
c_writer.writerow([row[5], 2])
elif (row[2] > 180):
c_writer.writerow([row[5], 3])
elif (row[3] >= 0 and row[3] > row[0]):
c_writer.writerow([row[5], 4])
c_csv.close()
end_time = time.time() - start_time
print str(end_time) + " - Seconds"
ОНОВЛЕННЯ №3 Остаточне оновлення. Загальний час виконання сценарію становить ~ 199,6 секунди / 3,2 хвилини.