Ледачий метод читання великого файлу в Python?


290

У мене дуже великий файл 4 Гб, і коли я намагаюся його прочитати, мій комп'ютер висить. Тому я хочу прочитати його по частинах, а після обробки кожного фрагмента зберігайте оброблений фрагмент в інший файл і читайте наступний фрагмент.

Чи є якийсь метод до yieldцих частин?

Мені б дуже хотілося мати ледачий метод .

Відповіді:


424

Щоб написати ліниву функцію, просто використовуйте yield:

def read_in_chunks(file_object, chunk_size=1024):
    """Lazy function (generator) to read a file piece by piece.
    Default chunk size: 1k."""
    while True:
        data = file_object.read(chunk_size)
        if not data:
            break
        yield data


with open('really_big_file.dat') as f:
    for piece in read_in_chunks(f):
        process_data(piece)

Іншим варіантом буде використання iterта допоміжна функція:

f = open('really_big_file.dat')
def read1k():
    return f.read(1024)

for piece in iter(read1k, ''):
    process_data(piece)

Якщо файл базується на рядках, об’єкт файлу - це вже ледачий генератор рядків:

for line in open('really_big_file.dat'):
    process_data(line)

Отже, рядок f = open('really_big_file.dat')- це лише вказівник без споживання пам'яті? (Я маю на увазі, що споживана пам'ять однакова, незалежно від розміру файлу?) Як це вплине на продуктивність, якщо я буду використовувати urllib.readline () замість f.readline ()?
sumid

4
Хороша практика використовувати open ('stvarno_big_file.dat', 'rb') для сумісності з нашими Posix-завданнями Windows з використанням колег.
Тал Вайс

6
Відсутній, rbяк згадував @Tal Weiss; і відсутня file.close()заява (може використати with open('really_big_file.dat', 'rb') as f:для виконання того ж; Дивіться тут ще одну
стисну

4
@ cod3monk3y: текстові та двійкові файли - це різні речі. Обидва типи корисні, але в різних випадках. Режим за замовчуванням (текст) може бути корисним тут є, 'rb'це НЕ вистачає.
jfs

2
@ jf-sebastian: правда, ОП не вказав, чи читає він текстові чи двійкові дані. Але якщо він з допомогою Python 2.7 на Windows , і це читання двійкових даних, це, безумовно , варто відзначити , що , якщо він забуває , що 'b'його дані будуть досить імовірно , будуть пошкоджені . З Документів -Python on Windows makes a distinction between text and binary files; [...] it’ll corrupt binary data like that in JPEG or EXE files. Be very careful to use binary mode when reading and writing such files.
cod3monk3y

41

Якщо ваш комп'ютер, ОС і python 64-розрядні , ви можете використовувати модуль mmap для картографування вмісту файлу в пам'яті та доступу до нього з індексами та фрагментами. Ось приклад з документації:

import mmap
with open("hello.txt", "r+") as f:
    # memory-map the file, size 0 means whole file
    map = mmap.mmap(f.fileno(), 0)
    # read content via standard file methods
    print map.readline()  # prints "Hello Python!"
    # read content via slice notation
    print map[:5]  # prints "Hello"
    # update content using slice notation;
    # note that new content must have same size
    map[6:] = " world!\n"
    # ... and read again using standard file methods
    map.seek(0)
    print map.readline()  # prints "Hello  world!"
    # close the map
    map.close()

Якщо або ваш комп'ютер, ОС або python є 32-бітними , тоді великі файли, що склалися, можуть резервувати великі частини вашого адресного простору і голодувати програмою пам'яті.


7
Як це має працювати? Що робити, якщо у мене є 32 ГБ файл? Що робити, якщо я перебуваю на ВМ із 256 Мб оперативної пам’яті? Створення карток такого величезного файлу насправді ніколи не є доброю справою.
Савіно Сгура

4
На цю відповідь заслуговує -12 голосів. Це вб'є всіх, хто використовує це для великих файлів.
Пхіо Аркар Лвін

23
Це може працювати на 64-бітному Python навіть для великих файлів. Навіть незважаючи на те, що файл відображений у пам'яті, він не читається в пам'яті, тому обсяг фізичної пам'яті може бути набагато меншим, ніж розмір файлу.
пт

1
@SavinoSguera чи має значення розмір фізичної пам'яті під час створення файлу?
Нік Т

17
@ V3ss0n: Я намагався скласти файл 32 ГБ на 64-розрядному Python. Це працює (у мене оперативна пам’ять менше 32 ГБ): я можу отримати доступ до початку, середини та кінця файлу, використовуючи як послідовність, так і файлові інтерфейси.
jfs

37

file.readlines() приймає необов'язковий аргумент розміру, який наближає кількість рядків, прочитаних у повернених рядках.

bigfile = open('bigfilename','r')
tmp_lines = bigfile.readlines(BUF_SIZE)
while tmp_lines:
    process([line for line in tmp_lines])
    tmp_lines = bigfile.readlines(BUF_SIZE)

1
це дійсно чудова ідея, особливо коли вона поєднується з рішенням за замовчуванням для розділення великих даних на більш дрібні.
Френк Ван

4
Я б рекомендував використовувати .read()НЕ .readlines(). Якщо файл є двійковим, у нього не буде розривів рядків.
Майєрс Карпентер

1
Що робити, якщо файл - одна величезна рядок?
MattSom

28

Вже є багато хороших відповідей, але якщо весь ваш файл знаходиться в одному рядку і ви все ще хочете обробити "рядки" (на відміну від блоків фіксованого розміру), ці відповіді вам не допоможуть.

У 99% часу можна обробляти файли по черзі. Тоді, як пропонується у цій відповіді , ви можете використовувати сам об’єкт файлу як генератор ледачих:

with open('big.csv') as f:
    for line in f:
        process(line)

Тим НЕ менше, я одного разу натрапив на дуже і дуже великий (майже) файл в одному рядку, де роздільник рядка був насправді не '\n'тільки '|'.

  • Читання рядка за рядком не було варіантом, але мені все одно потрібно було обробляти його рядок за рядком.
  • Перетворення '|'до '\n'обробки також не викликало сумнівів, оскільки деякі поля цього CSV містили '\n'(введення користувачем вільного тексту).
  • Використання бібліотеки csv також було виключено, оскільки той факт, що, принаймні, у ранніх версіях lib, важко кодувати читання вхідних рядків за рядком .

Для таких ситуацій я створив такий фрагмент:

def rows(f, chunksize=1024, sep='|'):
    """
    Read a file where the row separator is '|' lazily.

    Usage:

    >>> with open('big.csv') as f:
    >>>     for r in rows(f):
    >>>         process(row)
    """
    curr_row = ''
    while True:
        chunk = f.read(chunksize)
        if chunk == '': # End of file
            yield curr_row
            break
        while True:
            i = chunk.find(sep)
            if i == -1:
                break
            yield curr_row + chunk[:i]
            curr_row = ''
            chunk = chunk[i+1:]
        curr_row += chunk

Я зміг успішно використовувати його для вирішення своєї проблеми. Він пройшов широкі випробування з різними розмірами шматка.


Тестовий набір для тих, хто хоче переконати себе.

test_file = 'test_file'

def cleanup(func):
    def wrapper(*args, **kwargs):
        func(*args, **kwargs)
        os.unlink(test_file)
    return wrapper

@cleanup
def test_empty(chunksize=1024):
    with open(test_file, 'w') as f:
        f.write('')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 1

@cleanup
def test_1_char_2_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        f.write('|')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 2

@cleanup
def test_1_char(chunksize=1024):
    with open(test_file, 'w') as f:
        f.write('a')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 1

@cleanup
def test_1025_chars_1_row(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1025):
            f.write('a')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 1

@cleanup
def test_1024_chars_2_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1023):
            f.write('a')
        f.write('|')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 2

@cleanup
def test_1025_chars_1026_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1025):
            f.write('|')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 1026

@cleanup
def test_2048_chars_2_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1022):
            f.write('a')
        f.write('|')
        f.write('a')
        # -- end of 1st chunk --
        for i in range(1024):
            f.write('a')
        # -- end of 2nd chunk
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 2

@cleanup
def test_2049_chars_2_rows(chunksize=1024):
    with open(test_file, 'w') as f:
        for i in range(1022):
            f.write('a')
        f.write('|')
        f.write('a')
        # -- end of 1st chunk --
        for i in range(1024):
            f.write('a')
        # -- end of 2nd chunk
        f.write('a')
    with open(test_file) as f:
        assert len(list(rows(f, chunksize=chunksize))) == 2

if __name__ == '__main__':
    for chunksize in [1, 2, 4, 8, 16, 32, 64, 128, 256, 512, 1024]:
        test_empty(chunksize)
        test_1_char_2_rows(chunksize)
        test_1_char(chunksize)
        test_1025_chars_1_row(chunksize)
        test_1024_chars_2_rows(chunksize)
        test_1025_chars_1026_rows(chunksize)
        test_2048_chars_2_rows(chunksize)
        test_2049_chars_2_rows(chunksize)

11
f = ... # file-like object, i.e. supporting read(size) function and 
        # returning empty string '' when there is nothing to read

def chunked(file, chunk_size):
    return iter(lambda: file.read(chunk_size), '')

for data in chunked(f, 65536):
    # process the data

ОНОВЛЕННЯ: Підхід найкраще пояснюється на https://stackoverflow.com/a/4566523/38592


Це добре працює на краплі, але може не корисно для вмісту, розділеного рядками (наприклад, CSV, HTML тощо), де обробку потрібно обробляти по рядках)
cgseller

7

Перегляньте офіційну документацію python https://docs.python.org/zh-cn/3/library/functions.html?#iter

Можливо, цей метод є більш пітонічним:

from functools import partial

"""A file object returned by open() is a iterator with
read method which could specify current read's block size"""
with open('mydata.db', 'r') as f_in:

    part_read = partial(f_in.read, 1024*1024)
    iterator = iter(part_read, b'')

    for index, block in enumerate(iterator, start=1):
        block = process_block(block)    # process block data
        with open(f'{index}.txt', 'w') as f_out:
            f_out.write(block)

3

Я думаю, ми можемо написати так:

def read_file(path, block_size=1024): 
    with open(path, 'rb') as f: 
        while True: 
            piece = f.read(block_size) 
            if piece: 
                yield piece 
            else: 
                return

for piece in read_file(path):
    process_piece(piece)

2

мені заборонено коментувати через низьку репутацію, але рішення SilentGhosts має бути набагато простіше за допомогою file.readlines ([sizehint])

методи файлу python

редагувати: SilentGhost правильно, але це має бути краще, ніж:

s = "" 
for i in xrange(100): 
   s += file.next()

добре, вибачте, ви абсолютно праві. але, можливо, це рішення зробить вас щасливішими;): s = "" для i in xrange (100): s + = file.next ()
sinzi

1
-1: жахливе рішення, це означало б створення нового рядка в пам'яті кожного рядка та копіювання всіх даних про файл, прочитаних у новий рядок. Найгірша продуктивність і пам’ять.
nosklo

чому він би копіював усі дані файлів у новий рядок? з документації python: Для того, щоб зробити цикл для найбільш ефективного способу циклічного перегляду рядків файлу (дуже поширена операція), наступний () метод використовує прихований буфер попереднього читання.
sinzi

3
@sinzi: "s + =" або об'єднуючі рядки щоразу створюють нову копію рядка, оскільки рядок є непорушною, тому ви створюєте новий рядок.
nosklo

1
@nosklo: це деталі реалізації, розуміння списку можна використовувати на своєму місці
SilentGhost

1

Я в дещо подібній ситуації. Незрозуміло, чи знаєте ви розмір шматка в байтах; Зазвичай я цього не роблю, але кількість необхідних записів (рядків) відома:

def get_line():
     with open('4gb_file') as file:
         for i in file:
             yield i

lines_required = 100
gen = get_line()
chunk = [i for i, j in zip(gen, range(lines_required))]

Оновлення : Спасибі nosklo. Ось що я мав на увазі. Він майже працює, за винятком того, що він втрачає лінію "між" шматками.

chunk = [next(gen) for i in range(lines_required)]

Чи хитрість без втрати рядків, але це виглядає не дуже приємно.


1
це псевдокод? це не спрацює. Це також непотрібно плутати, вам слід зробити кількість рядків необов'язковим параметром функції get_line.
nosklo

0

Для обробки лінії за рядком це елегантне рішення:

  def stream_lines(file_name):
    file = open(file_name)
    while True:
      line = file.readline()
      if not line:
        file.close()
        break
      yield line

Поки немає порожніх рядків.


6
Це просто надмірно складний, менш надійний та повільний еквівалент тому, що openвже дає вам. Файл вже є ітератором у своїх рядках.
abarnert

-2

ви можете використовувати наступний код.

file_obj = open('big_file') 

open () повертає файловий об’єкт

потім використовуйте os.stat для отримання розміру

file_size = os.stat('big_file').st_size

for i in range( file_size/1024):
    print file_obj.read(1024)

не прочитав би весь файл, якщо розмір не буде
кратним
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.