Я спробував xlrd, pandas, openpyxl та інші подібні бібліотеки, і всі вони, здається, займають експоненціальний час, коли розмір файлу збільшується, коли він читає весь файл. Інші рішення, згадані вище, де вони використовували "on_demand", для мене не працювали. Якщо ви просто хочете отримати імена аркушів спочатку, наступна функція працює для файлів xlsx.
def get_sheet_details(file_path):
sheets = []
file_name = os.path.splitext(os.path.split(file_path)[-1])[0]
# Make a temporary directory with the file name
directory_to_extract_to = os.path.join(settings.MEDIA_ROOT, file_name)
os.mkdir(directory_to_extract_to)
# Extract the xlsx file as it is just a zip file
zip_ref = zipfile.ZipFile(file_path, 'r')
zip_ref.extractall(directory_to_extract_to)
zip_ref.close()
# Open the workbook.xml which is very light and only has meta data, get sheets from it
path_to_workbook = os.path.join(directory_to_extract_to, 'xl', 'workbook.xml')
with open(path_to_workbook, 'r') as f:
xml = f.read()
dictionary = xmltodict.parse(xml)
for sheet in dictionary['workbook']['sheets']['sheet']:
sheet_details = {
'id': sheet['@sheetId'],
'name': sheet['@name']
}
sheets.append(sheet_details)
# Delete the extracted files directory
shutil.rmtree(directory_to_extract_to)
return sheets
Оскільки всі xlsx - це в основному заархівовані файли, ми витягуємо основні дані xml та читаємо назви аркушів із робочої книги безпосередньо, що займає частку секунди порівняно з функціями бібліотеки.
Бенчмаркінг: (у файлі
xmbx розміром 6 Мб з 4 аркушами) Панди, xlrd: 12 секунд
openpyxl: 24 секунди
Пропонований метод: 0,4 секунди
Оскільки моя вимога полягала лише в тому, щоб прочитати назви аркушів, непотрібні витрати на читання весь час клопіли мене, тому я взяв цей маршрут замість цього.
ExcelFile
? Крім того, скажіть, я шукаю список аркушів і вирішую завантажити N з них, чи повинен я в цей момент зателефонуватиread_excel
(новий інтерфейс) для кожного аркуша чи дотримуватися йогоx1.parse
?