Мені все-таки варто було докласти зусиль, тому я запропоную тут найскладніше і найменш елегантне рішення для тих, хто може зацікавити. Моє рішення - реалізувати багатопотоковий min-max в алгоритмі одного проходу в C ++ і використовувати це для створення модуля розширення Python. Цей зусилля вимагає трохи накладних витрат, щоб навчитися використовувати API Python та NumPy C / C ++, і тут я покажу код і дам кілька невеликих пояснень та посилань для тих, хто бажає піти цим шляхом.
Мін / Макс
Тут немає нічого надто цікавого. Масив розбитий на шматки розміру length / workers
. Min / max обчислюється для кожного фрагмента в a future
, який потім сканується на глобальний min / max.
// mt_np.cc
//
// multi-threaded min/max algorithm
#include <algorithm>
#include <future>
#include <vector>
namespace mt_np {
/*
* Get {min,max} in interval [begin,end)
*/
template <typename T> std::pair<T, T> min_max(T *begin, T *end) {
T min{*begin};
T max{*begin};
while (++begin < end) {
if (*begin < min) {
min = *begin;
continue;
} else if (*begin > max) {
max = *begin;
}
}
return {min, max};
}
/*
* get {min,max} in interval [begin,end) using #workers for concurrency
*/
template <typename T>
std::pair<T, T> min_max_mt(T *begin, T *end, int workers) {
const long int chunk_size = std::max((end - begin) / workers, 1l);
std::vector<std::future<std::pair<T, T>>> min_maxes;
// fire up the workers
while (begin < end) {
T *next = std::min(end, begin + chunk_size);
min_maxes.push_back(std::async(min_max<T>, begin, next));
begin = next;
}
// retrieve the results
auto min_max_it = min_maxes.begin();
auto v{min_max_it->get()};
T min{v.first};
T max{v.second};
while (++min_max_it != min_maxes.end()) {
v = min_max_it->get();
min = std::min(min, v.first);
max = std::max(max, v.second);
}
return {min, max};
}
}; // namespace mt_np
Модуль розширення Python
Ось де все починає бути негарним ... Один із способів використання коду C ++ у Python - це реалізація модуля розширення. Цей модуль можна побудувати та встановити за допомогою distutils.core
стандартного модуля. Повний опис того, що це спричиняє, висвітлено в документації на Python: https://docs.python.org/3/extending/extending.html . ПРИМІТКА. Звичайно, існують інші способи отримання подібних результатів, щоб процитувати https://docs.python.org/3/extending/index.html#extending-index :
Цей посібник охоплює лише основні інструменти для створення розширень, що надаються як частина цієї версії CPython. Сторонні інструменти, такі як Cython, cffi, SWIG та Numba, пропонують як простіші, так і складніші підходи до створення розширень C і C ++ для Python.
По суті, цей маршрут, мабуть, більше академічний, ніж практичний. Маючи на увазі, що я зробив далі, було, приклеївшись близько до підручника, створити файл модуля. Це по суті котло для дистрибутивів, щоб знати, що робити з вашим кодом і створити з нього модуль Python. Перш ніж робити щось із цього, можливо, розумно створити віртуальне середовище Python, щоб ви не забруднили ваші системні пакети (див. Https://docs.python.org/3/library/venv.html#module-venv ).
Ось файл модуля:
// mt_np_forpy.cc
//
// C++ module implementation for multi-threaded min/max for np
#define NPY_NO_DEPRECATED_API NPY_1_7_API_VERSION
#include <python3.6/numpy/arrayobject.h>
#include "mt_np.h"
#include <cstdint>
#include <iostream>
using namespace std;
/*
* check:
* shape
* stride
* data_type
* byteorder
* alignment
*/
static bool check_array(PyArrayObject *arr) {
if (PyArray_NDIM(arr) != 1) {
PyErr_SetString(PyExc_RuntimeError, "Wrong shape, require (1,n)");
return false;
}
if (PyArray_STRIDES(arr)[0] != 8) {
PyErr_SetString(PyExc_RuntimeError, "Expected stride of 8");
return false;
}
PyArray_Descr *descr = PyArray_DESCR(arr);
if (descr->type != NPY_LONGLTR && descr->type != NPY_DOUBLELTR) {
PyErr_SetString(PyExc_RuntimeError, "Wrong type, require l or d");
return false;
}
if (descr->byteorder != '=') {
PyErr_SetString(PyExc_RuntimeError, "Expected native byteorder");
return false;
}
if (descr->alignment != 8) {
cerr << "alignment: " << descr->alignment << endl;
PyErr_SetString(PyExc_RuntimeError, "Require proper alignement");
return false;
}
return true;
}
template <typename T>
static PyObject *mt_np_minmax_dispatch(PyArrayObject *arr) {
npy_intp size = PyArray_SHAPE(arr)[0];
T *begin = (T *)PyArray_DATA(arr);
auto minmax =
mt_np::min_max_mt(begin, begin + size, thread::hardware_concurrency());
return Py_BuildValue("(L,L)", minmax.first, minmax.second);
}
static PyObject *mt_np_minmax(PyObject *self, PyObject *args) {
PyArrayObject *arr;
if (!PyArg_ParseTuple(args, "O", &arr))
return NULL;
if (!check_array(arr))
return NULL;
switch (PyArray_DESCR(arr)->type) {
case NPY_LONGLTR: {
return mt_np_minmax_dispatch<int64_t>(arr);
} break;
case NPY_DOUBLELTR: {
return mt_np_minmax_dispatch<double>(arr);
} break;
default: {
PyErr_SetString(PyExc_RuntimeError, "Unknown error");
return NULL;
}
}
}
static PyObject *get_concurrency(PyObject *self, PyObject *args) {
return Py_BuildValue("I", thread::hardware_concurrency());
}
static PyMethodDef mt_np_Methods[] = {
{"mt_np_minmax", mt_np_minmax, METH_VARARGS, "multi-threaded np min/max"},
{"get_concurrency", get_concurrency, METH_VARARGS,
"retrieve thread::hardware_concurrency()"},
{NULL, NULL, 0, NULL} /* sentinel */
};
static struct PyModuleDef mt_np_module = {PyModuleDef_HEAD_INIT, "mt_np", NULL,
-1, mt_np_Methods};
PyMODINIT_FUNC PyInit_mt_np() { return PyModule_Create(&mt_np_module); }
У цьому файлі є значне використання як Python, так і API NumPy, для отримання додаткової інформації зверніться: https://docs.python.org/3/c-api/arg.html#c.PyArg_ParseTuple та для NumPy : https://docs.scipy.org/doc/numpy/reference/c-api.array.html .
Встановлення модуля
Наступне, що потрібно зробити - використовувати distutils для встановлення модуля. Для цього потрібен файл налаштування:
# setup.py
from distutils.core import setup,Extension
module = Extension('mt_np', sources = ['mt_np_module.cc'])
setup (name = 'mt_np',
version = '1.0',
description = 'multi-threaded min/max for np arrays',
ext_modules = [module])
Щоб остаточно встановити модуль, виконайте його python3 setup.py install
з віртуального середовища.
Тестування модуля
Нарешті, ми можемо перевірити, чи реалізація C ++ насправді перевершує наївне використання NumPy. Для цього ось простий тестовий сценарій:
# timing.py
# compare numpy min/max vs multi-threaded min/max
import numpy as np
import mt_np
import timeit
def normal_min_max(X):
return (np.min(X),np.max(X))
print(mt_np.get_concurrency())
for ssize in np.logspace(3,8,6):
size = int(ssize)
print('********************')
print('sample size:', size)
print('********************')
samples = np.random.normal(0,50,(2,size))
for sample in samples:
print('np:', timeit.timeit('normal_min_max(sample)',
globals=globals(),number=10))
print('mt:', timeit.timeit('mt_np.mt_np_minmax(sample)',
globals=globals(),number=10))
Ось результати, які я отримав від цього всього:
8
********************
sample size: 1000
********************
np: 0.00012079699808964506
mt: 0.002468645994667895
np: 0.00011947099847020581
mt: 0.0020772050047526136
********************
sample size: 10000
********************
np: 0.00024697799381101504
mt: 0.002037393998762127
np: 0.0002713389985729009
mt: 0.0020942929986631498
********************
sample size: 100000
********************
np: 0.0007130410012905486
mt: 0.0019842900001094677
np: 0.0007540129954577424
mt: 0.0029724110063398257
********************
sample size: 1000000
********************
np: 0.0094779249993735
mt: 0.007134920000680722
np: 0.009129883001151029
mt: 0.012836456997320056
********************
sample size: 10000000
********************
np: 0.09471094200125663
mt: 0.0453535050037317
np: 0.09436299200024223
mt: 0.04188535599678289
********************
sample size: 100000000
********************
np: 0.9537652180006262
mt: 0.3957935369980987
np: 0.9624398809974082
mt: 0.4019058070043684
Вони набагато менш обнадійливі, ніж результати, зазначені раніше в потоці, який вказував десь приблизно на 3,5-кратне прискорення, і не включав багатопотоковість. Результати, які я досяг, є дещо розумними, я б очікував, що накладні витрати на нитки та будуть домінувати в часі, поки масиви не стануть дуже великими, і в цей момент збільшення продуктивності почне наближатися до std::thread::hardware_concurrency
x збільшення.
Висновок
Звичайно, є можливість для оптимізації додатків до певного коду NumPy, зокрема, що стосується багатопотокової передачі. Варто чи ні варто докладати зусиль, мені не зрозуміло, але це, звичайно, здається гарною вправою (чи що-небудь). Я думаю, що, можливо, вивчення деяких таких "сторонніх інструментів", як Cython, може бути кращим використанням часу, але хто знає.
amax
amin