Наскільки мені відомо, коли приймається Stochastic Gradient Descent як алгоритм навчання, хтось використовує 'epoch' для повного набору даних та 'batch' для даних, що використовуються в одному кроці оновлення, в той час як інший використовує відповідно 'batch' і 'minibatch', і інші використовують "епоху" та "міні-серію". Це приводить до великої плутанини під час обговорення.
Отже, що є правильним висловом? Або це просто діалекти, які всі прийнятні?