Хтось тут використовував подвійні точні наукові обчислення з GPU нового покоління (наприклад, K20) через Python?
Я знаю, що ця технологія швидко розвивається, але який найкращий спосіб зробити це на даний момент? Графічний процесор не входить у сферу популярних наукових бібліотек Python numpy та scipy, і я хотів використовувати theano, але, здається, використовується лише точність float32 для GPU. Я знаю, що google може надати результати пошуку для python gpu, але я сподіваюся на більш глибоке розуміння, ніж перелік проектів, які можуть або не можуть на шляху до зустрічі їх виробника.