Запитання з тегом «convolution»

Згортання - функція, що оцінюється функцією, на дві функції f і g: f(τ)g(tτ)dτ. Часто використовується для отримання щільності суми незалежних випадкових величин. Цей тег також слід використовувати для зворотної операції деконволюції. НЕ використовуйте цей тег для згорткових нейронних мереж.

6
Що означає згортання 1x1 у нейронній мережі?
Зараз я займаюся навчальним посібником з глибокого навчання Udacity. У уроці 3 вони говорять про згортку 1x1. Цей звіт 1х1 використовується в Inception модулі Google. У мене виникають проблеми з розумінням того, що таке згортка 1x1. Я також бачив цю посаду Янна Лекуна. Може хтось люб’язно мені це пояснить?

6
Важливість нормалізації локальної реакції в CNN
Я виявив, що Imagenet та інші великі CNN використовують локальні шари нормалізації відповіді. Однак я не можу знайти про них стільки інформації. Наскільки вони важливі і коли їх слід використовувати? З http://caffe.berkeleyvision.org/tutorial/layers.html#data-layers : "Рівень нормалізації локальної відповіді виконує своєрідне" бічне гальмування "шляхом нормалізації над локальними вхідними регіонами. У режимі ACROSS_CHANNELS …

4
Що таке інваріантність перекладу в комп'ютерному зорі та конволюційній нейромережі?
У мене немає фону з комп’ютерним зором, але коли я читаю деякі статті та документи, пов'язані з обробкою зображень та конволюційними нейронними мережами, постійно стикаюся з терміном translation invariance, або translation invariant. Або я читаю багато, що забезпечує згортання translation invariance? !! що це означає? Я сам завжди перекладав це …

10
Чому сума двох випадкових величин є згорткою?
Я довго не розумів, чому "сума" двох випадкових величин - це їх згортання , тоді як сума функції густини суміші і -f(x)f(x)f(x)g(x)g(x)g(x)pf(x)+(1−p)g(x)pf(x)+(1−p)g(x)p\,f(x)+(1-p)g(x); арифметична сума, а не їх згортання. Точна фраза "сума двох випадкових змінних" з'являється в google 146 000 разів і є еліптичною наступним чином. Якщо вважати RV для отримання …

2
Конволюційні нейронні мережі: Чи не є центральні нейрони надмірно представлені у висновку?
[Це питання також було задано при переповненні стека] Питання коротше Я вивчаю конволюційні нейронні мережі, і вважаю, що ці мережі не розглядають кожен вхідний нейрон (піксель / параметр) рівномірно. Уявіть, у нас є глибока мережа (багато шарів), яка застосовує згортання на деяке вхідне зображення. Нейрони в "середині" зображення мають багато …

1
Чи може ступінь свободи бути цілим числом?
Коли я використовую GAM, це дає мені залишковий коефіцієнт DF (останній рядок у коді). Що це означає? Виходячи за приклад GAM, загалом, чи може число ступенів свободи бути нецілим числом?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median 3Q Max …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 

1
"Оцінка щільності ядра" - це згортання того, що?
Я намагаюся краще зрозуміти оцінку щільності ядра. Використання визначення з Вікіпедії: https://en.wikipedia.org/wiki/Kernel_density_estimation#Definition fгод^( х ) = 1н∑нi = 1Кгод( х - хi)= 1n год∑нi = 1К( х - хiгод)fh^(x)=1n∑i=1nKh(x−xi)=1nh∑i=1nK(x−xih) \hat{f_h}(x) = \frac{1}{n}\sum_{i=1}^n K_h (x - x_i) \quad = \frac{1}{nh} \sum_{i=1}^n K\Big(\frac{x-x_i}{h}\Big) Візьмемо як прямокутну функцію, яка дає якщо знаходиться в …

6
Зворотні шари: накладати чи не прокладати?
Архітектура AlexNet використовує нульові прокладки, як показано на малюнку: Однак у статті немає пояснень, чому це введення вкладено Курс Standford CS 231n вчить, що ми використовуємо набивки для збереження просторових розмірів: Мені цікаво, це єдина причина, коли нам потрібні набивки? Я маю на увазі, якщо мені не потрібно зберігати просторовий …

2
Динамічний вигляд систем теореми центральної межі?
(Спочатку розміщено на MSE.) Я бачив, як багато евристичних дискусій класичної теореми про центральну межу говорять про нормальний розподіл (або будь-який із стабільних розподілів) як про «атрактор» у просторі ймовірностей щільності. Наприклад, розгляньте ці пропозиції у верхній частині звернення Вікіпедії : У більш загальному використанні центральною граничною теоремою є будь-яка …

3
Що робить крок згортки в конволюційній нейронній мережі?
Я вивчаю конволюційні нейронні мережі (CNN) завдяки їх застосуванню в комп'ютерному зорі. Я вже знайомий зі стандартними нейронними мережами, що рухаються вперед, тому я сподіваюся, що деякі люди тут можуть допомогти мені зробити додатковий крок у розумінні CNN. Ось що я думаю про CNN: У традиційних NN-каналах подачі даних у …

2
Чи є математичні причини згортання в нейронних мережах поза доцільністю?
У конволюційних нейронних мережах (CNN) матриця ваг на кожному кроці отримує свої рядки та стовпці, перевернуті, щоб отримати матрицю ядра, перш ніж приступити до згортання. Про це пояснюється у серії відео Уго Ларошель тут : Обчислення прихованих карт буде відповідати виконанню дискретної згортки з каналом з попереднього шару, використовуючи матрицю …

2
Розподіл згортки квадратних нормальних та чи-квадратних змінних?
наступна проблема виникла нещодавно під час аналізу даних. Якщо випадкова величина X слідує за нормальним розподілом, а Y слідує за розподілом χ2nχn2\chi^2_n (з n dof), як розподіляється Z=X2+Y2Z=X2+Y2Z = X^2 + Y^2 ? До цих пір я придумав pdf з Y2Y2Y^2 : ψ2n(x)====∂F(x−−√)∂x(∫x√0tn/2−1⋅e−t/22n/2Γ(n/2)dt)′x12n/2Γ(n/2)⋅(x−−√)n/2−1⋅e−x√/2⋅(x−−√)′x12n/2−1Γ(n/2)⋅xn/4−1⋅e−x√/2ψn2(x)=∂F(x)∂x=(∫0xtn/2−1⋅e−t/22n/2Γ(n/2)dt)x′=12n/2Γ(n/2)⋅(x)n/2−1⋅e−x/2⋅(x)x′=12n/2−1Γ(n/2)⋅xn/4−1⋅e−x/2\begin{eqnarray} \psi^2_n(x) &=& \frac{\partial F(\sqrt{x})}{\partial x} \\ &=& …

3
Як саме конволюційні нейронні мережі використовують згортку замість множення матриці?
Я читав Книгу Йошуа Бенджіо про глибоке навчання, і це написано на сторінці 224: Конволюційні мережі - це просто нейронні мережі, які використовують згортку замість загального множення матриць принаймні в одному з їх шарів. однак я не був на 100% впевнений у тому, як «замінити матричне множення на згортку» в …

4
Сума незалежних лонормальних випадкових величин здається ненормальною?
Я намагаюся зрозуміти, чому сума двох (або більше) лонормальних випадкових величин наближається до лонормального розподілу, коли ви збільшуєте кількість спостережень. Я подивився в Інтернеті і не знайшов жодного результату щодо цього. Зрозуміло, що якщо і є незалежними логічними нормами, то за властивостями експонентів та гауссових випадкових величин також є ненормальним. …

2
Чи не було б кілька фільтрів у згортковому шарі вивчити один і той же параметр під час тренування?
Виходячи з того, що я дізнався, ми використовуємо кілька фільтрів у конвеєрному шарі CNN для вивчення різних детекторів функцій. Але оскільки ці фільтри застосовуються аналогічно (тобто ковзають і примножуються до областей введення), чи не просто вони засвоїли б однакові параметри під час тренування? Отже, використання декількох фільтрів буде зайвим?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.