Запитання з тегом «tensorflow»

Бібліотека Python для глибокого навчання, розроблена Google. Використовуйте цей тег для будь-якого тематичного питання, яке (а) передбачає tensorflow або як критичну частину запитання або очікувану відповідь, а (b) - не лише про те, як використовувати tensorflow.

4
Чи можна надати зображення змінного розміру як вхід до згорткової нейронної мережі?
Чи можемо ми дати зображення із змінним розміром як вхід у згорнуту нейронну мережу для виявлення об'єктів? Якщо можливо, як це зробити? Але якщо ми спробуємо обрізати зображення, ми втратимо частину зображення, а якщо спробуємо змінити розмір, то чіткість зображення буде втрачена. Чи означає це, що використання властивості властивості мережі …

2
Як реалізується просторовий викид у 2D?
Це стосується статті " Ефективна локалізація об'єктів за допомогою згорткових мереж" , і з того, що я розумію, випадання реалізується в 2D. Після прочитання коду від Кераса про те, як реалізовано просторовий 2D випадання, в основному реалізується випадкова бінарна маска форми [batch_size, 1, 1, num_channels]. Однак що саме робить цей …

5
Чи має значення перехресна ентропія в контексті регресії?
Чи має значення перехресна ентропія в контексті регресії (на відміну від класифікації)? Якщо так, чи могли б ви навести приклад іграшки через TensorFlow? Якщо ні, то чому б і ні? Я читав про крос-ентропію в нейронних мережах та глибоке навчання Майкла Нільсена, і, здається, щось таке, що природно можна було …

2
Нейрові мережі: одночасна змінна переважна безперервна?
У мене є вихідні дані, які містять близько 20 стовпців (20 функцій). Десять із них - це суцільні дані, 10 з них - категоричні. Деякі з категоричних даних можуть мати приблизно 50 різних значень (США). Після того як я попередньо обробляла дані, 10 безперервних стовпців стають 10 підготовленими стовпцями, а …

2
Керас: чому зменшення втрат при збільшенні val_loss?
Я налаштовую пошук в сітці для групи парам. Я намагаюся знайти найкращі параметри нейронної мережі Кераса, яка робить бінарну класифікацію. Вихід або 1, або 0. Є близько 200 функцій. Коли я здійснив пошук по сітці, я отримав купу моделей та їх параметрів. Найкраща модель мала ці параметри: Epochs : 20 …

4
Як (систематично) налаштовувати рівень навчання з градієнтним походженням як оптимізатор?
Аутсайдер у галузі ML / DL; розпочав курс глибокого навчання Udacity, який базується на Tensorflow; виконання завдання 3 завдання 4; намагаючись налаштувати рівень навчання за допомогою наступної конфігурації: Розмір партії 128 Кількість кроків: достатньо, щоб заповнити 2 епохи Розміри прихованих шарів: 1024, 305, 75 Ініціалізація ваги: ​​усічений нормальний з std. …

2
Як спуск міні-партії градієнта оновлює ваги для кожного прикладу в партії?
Якщо ми обробляємо, наприклад, 10 прикладів у партії, я розумію, що ми можемо підсумовувати втрати за кожним прикладом, але як працює зворотне розмноження щодо оновлення ваг для кожного прикладу? Наприклад: Приклад 1 -> втрата = 2 Приклад 2 -> втрата = -2 Це призводить до середньої втрати 0 (E = …

2
Як Tensorflow `tf.train.Optimizer` обчислює градієнти?
Я стежу за підручником із журналу Tensorflow ( https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutorials/mnist/mnist_softmax.py ). Підручник використовує tf.train.Optimizer.minimize(конкретно tf.train.GradientDescentOptimizer). Я не бачу жодних аргументів, щоб передаватись ніде для визначення градієнтів. Чи потік тензорів використовує цифрову диференціацію за замовчуванням? Чи є спосіб пройти в градієнтах, як ви можете scipy.optimize.minimize?

1
Чи нейронні мережі зазвичай потребують певного часу, щоб "піднятися" під час тренувань?
Я намагаюся навчити глибоку нейронну мережу для класифікації, використовуючи зворотне поширення. Зокрема, я використовую звивисту нейронну мережу для класифікації зображень, використовуючи бібліотеку потоків тензорів. Під час тренувань я відчуваю якусь дивну поведінку, і мені просто цікаво, чи це типово, чи я можу робити щось не так. Отже, моя конволюційна нейронна …

1
Чому випадкові риси Фур’є є негативними?
Випадкові функції Фур'є забезпечують наближення до функцій ядра. Вони використовуються для різних методів ядра, таких як SVM та процеси Гаусса. Сьогодні я спробував використовувати реалізацію TensorFlow, і я отримав від’ємні значення для половини моїх функцій. Як я розумію, цього не повинно статися. Тож я повернувся до оригінального документу , який …

2
WaveNet насправді не є розширеною згорткою, чи не так?
В останній роботі WaveNet автори посилаються на свою модель як зі складеними шарами розширених згортків. Вони також створюють наступні діаграми, пояснюючи різницю між "регулярними" згортками та розширеними згортками. Регулярні звивини виглядають так: Це згортання з розміром фільтра 2 та кроком 1, повторюваним у 4 шари. Потім вони показують архітектуру, використану …

1
Яка модель глибокого навчання може класифікувати категорії, які не є взаємовиключними
Приклади: у мене є речення в описі посади: "Старший інженер Java у Великобританії". Я хочу використовувати модель глибокого навчання, щоб передбачити її як 2 категорії: English і IT jobs. Якщо я використовую традиційну модель класифікації, вона може передбачити лише 1 мітку з softmaxфункцією на останньому шарі. Таким чином, я можу …
9 machine-learning  deep-learning  natural-language  tensorflow  sampling  distance  non-independent  application  regression  machine-learning  logistic  mixed-model  control-group  crossover  r  multivariate-analysis  ecology  procrustes-analysis  vegan  regression  hypothesis-testing  interpretation  chi-squared  bootstrap  r  bioinformatics  bayesian  exponential  beta-distribution  bernoulli-distribution  conjugate-prior  distributions  bayesian  prior  beta-distribution  covariance  naive-bayes  smoothing  laplace-smoothing  distributions  data-visualization  regression  probit  penalized  estimation  unbiased-estimator  fisher-information  unbalanced-classes  bayesian  model-selection  aic  multiple-regression  cross-validation  regression-coefficients  nonlinear-regression  standardization  naive-bayes  trend  machine-learning  clustering  unsupervised-learning  wilcoxon-mann-whitney  z-score  econometrics  generalized-moments  method-of-moments  machine-learning  conv-neural-network  image-processing  ocr  machine-learning  neural-networks  conv-neural-network  tensorflow  r  logistic  scoring-rules  probability  self-study  pdf  cdf  classification  svm  resampling  forecasting  rms  volatility-forecasting  diebold-mariano  neural-networks  prediction-interval  uncertainty 
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.