Наука про дані

Питання та відповіді для фахівців з науки про дані, фахівців з машинного навчання та тих, хто зацікавлений у вивченні даної області

10
Що таке деконволюційні шари?
Нещодавно я прочитав « Цілком конволюційні мережі для семантичної сегментації » Джонатана Лонга, Евана Шелгамера, Тревора Даррелла. Я не розумію, що роблять "деконволюційні шари" / як вони працюють. Відповідна частина - 3.3. Підвищення розміру - це згорнута назад реакція Інший спосіб підключення грубих виходів до щільних пікселів - інтерполяція. Наприклад, …

30
Загальнодоступні набори даних
Однією з поширених проблем в науці даних є збір даних з різних джерел у якось очищеному (напівструктурованому) форматі та поєднання метрик з різних джерел для аналізу вищого рівня. Переглядаючи зусилля інших людей, особливо інші питання на цьому сайті, виявляється, що багато людей у ​​цій галузі виконують дещо повторювану роботу. Наприклад, …

13
K-засоби кластеризації для змішаних числових та категоричних даних
Мій набір даних містить ряд числових атрибутів та один категоричний. Скажіть NumericAttr1, NumericAttr2, ..., NumericAttrN, CategoricalAttr, де CategoricalAttrприймає один з трьох можливих значень: CategoricalAttrValue1, CategoricalAttrValue2або CategoricalAttrValue3. Я використовую реалізацію алгоритму кластеризації k-означає за замовчуванням для Octave https://blog.west.uni-koblenz.de/2012-07-14/a-working-k-means-code-for-octave/ . Він працює лише з числовими даними. Отже, моє запитання: чи правильно розділити …


8
Як встановити ваги класів для незбалансованих класів у Керасі?
Я знаю, що в Керасі є можливість зі class_weightsсловником параметрів при встановленні, але я не міг знайти жодного прикладу. Хтось такий добрий надати? До речі, у цьому випадку відповідна практика полягає у простому зважуванні класу меншин пропорційно його недооціненості?

5
Яка проблема "вмираючої ReLU" в нейронних мережах?
Посилаючись на примітки курсу Стенфорда про конволюційні нейронні мережі для візуального розпізнавання , в пункті сказано: "На жаль, підрозділи ReLU можуть бути крихкими під час тренування і можуть" померти ". Наприклад, великий градієнт, що протікає через нейрон ReLU, може призвести до того, що ваги оновлюються таким чином, що нейрон ніколи …

5
Помилка перехресної ентропії в нейронних мережах
У програмі MNIST for ML початківці визначають перехресну ентропію як Ну'( у) : = - ∑iу'iжурнал( уi)Ну'(у): =-∑iуi'журнал⁡(уi)H_{y'} (y) := - \sum_{i} y_{i}' \log (y_i) уiуiy_i - передбачуване значення ймовірності для класу а - справжня ймовірність для цього класу.iiiу'iуi'y_i' питання 1 Хіба це не проблема, що (у ) може бути …

8
Різниця між fit і fit_transform у моделях scikit_learn?
Я новачок у науці даних, і я не розумію різниці між методами fitі fit_transformнауками у навчанні. Чи може хтось просто пояснити, чому нам може знадобитися трансформація даних? Що означає відповідність моделі навчальних даних та перетворення на тестові дані? Чи означає це, наприклад, перетворення категоричних змінних у числа в поїзді та …

6
Середній показник порівняно з середніми показниками макроконтролю у класичній класифікації
Я випробовую класифікаційну класифікацію з 3 класами. Розподіл класів перекошений з більшістю даних, що потрапляють в 1 з 3 класів. (етикетки класів складають 1,2,3, причому 67,28% даних потрапляють у класну мітку 1, 11,99% - дані у класі 2 та залишаються у класі 3) Я готую багатокласовий класифікатор на цьому наборі …

15
Python vs R для машинного навчання
Я тільки починаю розробляти додаток машинного навчання в академічних цілях. Зараз я використовую R і тренуюсь в ньому. Однак у багатьох місцях я бачив людей, які використовують Python . Чим користуються люди в наукових колах та промисловості, і яка рекомендація?

3
Коли використовувати One Hot Encoding vs LabelEncoder vs DictVectorizor?
Я вже деякий час будую моделі з категоричними даними, і коли в цій ситуації я за замовчуванням використовую функцію LabelEncoder scikit-learn для перетворення цих даних перед побудовою моделі. Я розумію різницю між OHE, LabelEncoderі DictVectorizorз точки зору того, що вони роблять , щоб дані, але то , що мені не …

6
Коли використовувати GRU через LSTM?
Ключова відмінність між GRU та LSTM полягає в тому, що GRU має два ворота (ворота скидання та оновлення ), тоді як LSTM має три ворота (а саме вхідні , вихідні та забуті ворота). Чому ми використовуємо GRU, коли явно маємо більше контролю в мережі через модель LSTM (оскільки у нас …

12
Наскільки великі великі дані?
Багато людей використовують термін великі дані досить комерційним шляхом, як засіб вказування на те, що великі набори даних беруть участь у обчисленнях, і тому потенційні рішення повинні мати хороші показники. Звичайно, великі дані завжди містять пов'язані терміни, такі як масштабованість та ефективність, але що саме визначає проблему як велику проблему …

8
Вибір курсу навчання
Зараз я працюю над впровадженням стохастичного градієнтного спуску SGDдля нейронних мереж, що використовують зворотне розповсюдження, і, хоча я розумію його мету, у мене є деякі питання щодо того, як вибрати значення для швидкості навчання. Чи пов’язана ступінь навчання з формою градієнта помилок, оскільки це диктує швидкість спуску? Якщо так, то …

15
Як ви візуалізуєте архітектури нейронної мережі?
Під час написання статті / презентації теми, що стосується нейронних мереж, зазвичай візуалізується архітектура мереж. Які хороші / прості способи візуалізації загальних архітектур автоматично?

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.