Я працюю в середовищі, де обчислювальні ресурси діляться, тобто у нас є кілька серверних машин, оснащених кількома графічними процесорами Nvidia Titan X кожен.
Для моделей невеликого та середнього розміру, 12 Гбайт Titan X, як правило, достатньо для 2–3 людей, щоб одночасно тренуватись на одному графічному графіку. Якщо моделі досить малі, що одна модель не використовує в повній мірі всі обчислювальні одиниці GPU, це фактично може призвести до прискорення порівняно з запуском одного навчального процесу за іншим. Навіть у випадках, коли паралельний доступ до GPU уповільнює індивідуальний час навчання, все одно приємно мати гнучкість того, що декілька користувачів одночасно навчаються на GPU.
Проблема з TensorFlow полягає в тому, що він за замовчуванням виділяє повний об'єм наявної пам’яті GPU під час її запуску. Навіть для невеликої двошарової нейронної мережі я бачу, що всі 12 ГБ пам’яті GPU витрачено.
Чи є спосіб зробити так, щоб TensorFlow виділив, скажімо, 4 Гб пам'яті GPU, якщо хтось знає, що цього достатньо для даної моделі?