Який найпростіший спосіб паралелізувати цей код?
Мені це дуже подобається concurrent.futures
, доступний у Python3 з версії 3.2 - і через backport до 2.6 та 2.7 на PyPi .
Ви можете використовувати потоки чи процеси та використовувати той самий інтерфейс.
Багатопроцесорна
Помістіть це у файл - futuretest.py:
import concurrent.futures
import time, random # add some random sleep time
offset = 2 # you don't supply these so
def calc_stuff(parameter=None): # these are examples.
sleep_time = random.choice([0, 1, 2, 3, 4, 5])
time.sleep(sleep_time)
return parameter / 2, sleep_time, parameter * parameter
def procedure(j): # just factoring out the
parameter = j * offset # procedure
# call the calculation
return calc_stuff(parameter=parameter)
def main():
output1 = list()
output2 = list()
output3 = list()
start = time.time() # let's see how long this takes
# we can swap out ProcessPoolExecutor for ThreadPoolExecutor
with concurrent.futures.ProcessPoolExecutor() as executor:
for out1, out2, out3 in executor.map(procedure, range(0, 10)):
# put results into correct output list
output1.append(out1)
output2.append(out2)
output3.append(out3)
finish = time.time()
# these kinds of format strings are only available on Python 3.6:
# time to upgrade!
print(f'original inputs: {repr(output1)}')
print(f'total time to execute {sum(output2)} = sum({repr(output2)})')
print(f'time saved by parallelizing: {sum(output2) - (finish-start)}')
print(f'returned in order given: {repr(output3)}')
if __name__ == '__main__':
main()
І ось результат:
$ python3 -m futuretest
original inputs: [0.0, 1.0, 2.0, 3.0, 4.0, 5.0, 6.0, 7.0, 8.0, 9.0]
total time to execute 33 = sum([0, 3, 3, 4, 3, 5, 1, 5, 5, 4])
time saved by parallellizing: 27.68999981880188
returned in order given: [0, 4, 16, 36, 64, 100, 144, 196, 256, 324]
Багатопотоковість
Тепер перейдіть ProcessPoolExecutor
на ThreadPoolExecutor
модуль та запустіть його ще раз:
$ python3 -m futuretest
original inputs: [0.0, 1.0, 2.0, 3.0, 4.0, 5.0, 6.0, 7.0, 8.0, 9.0]
total time to execute 19 = sum([0, 2, 3, 5, 2, 0, 0, 3, 3, 1])
time saved by parallellizing: 13.992000102996826
returned in order given: [0, 4, 16, 36, 64, 100, 144, 196, 256, 324]
Тепер ви зробили як багатопотокове, так і багатопроцесорне!
Примітка щодо продуктивності та використання обох разом.
Відбір проб є занадто малим для порівняння результатів.
Однак я підозрюю, що багатопотокове читання буде швидше, ніж багатопроцесове взагалі, особливо в Windows, оскільки Windows не підтримує розгортання, тому кожен новий процес повинен зайняти час для запуску. На Linux або Mac вони, мабуть, будуть ближче.
Ви можете вкласти декілька потоків у декілька процесів, але рекомендується не використовувати декілька потоків для відкручування декількох процесів.
calc_stuff
?