Тож, дивлячись на нейронні мережі радіальної основи функції, я помітив, що люди лише рекомендують використовувати 1 прихований шар, тоді як при багатошарових персептронних нейронних мережах більше шарів вважається кращим.
З огляду на те, що мережі RBF можуть бути навчені з версією поширення зворотного зв'язку? Чи є причини, чому більш глибокі мережі RBF не працюватимуть, або що рівень RBF не може бути використаний як передостанній або перший рівень у глибокій мережі MLP? (Я думав, передостанній шар, щоб він по суті міг бути навчений особливостям, вивченим попередніми шарами MLP)