1
Чому люди не використовують більш глибокі RBF або RBF у поєднанні з MLP?
Тож, дивлячись на нейронні мережі радіальної основи функції, я помітив, що люди лише рекомендують використовувати 1 прихований шар, тоді як при багатошарових персептронних нейронних мережах більше шарів вважається кращим. З огляду на те, що мережі RBF можуть бути навчені з версією поширення зворотного зв'язку? Чи є причини, чому більш глибокі …