Запитання з тегом «loss-function»

5
Чому функції витрат використовують квадратну помилку?
Я тільки починаю з машинного навчання, і до цього часу я мав справу з лінійною регресією на одній змінній. Я дізнався, що існує гіпотеза, яка є: hθ(x)=θ0+θ1xhθ(x)=θ0+θ1xh_\theta(x)=\theta_0+\theta_1x Щоб дізнатися хороші значення параметрів та ми хочемо мінімізувати різницю між обчисленим результатом та фактичним результатом наших тестових даних. Отже ми віднімаємоθ 1θ0θ0\theta_0θ1θ1\theta_1 …

4
Інтуїтивне пояснення втрат протишумної оцінки (NCE)?
Я читав про NCE (форму вибірки кандидатів) з цих двох джерел: Тенсдорфловський запис Оригінальний папір Чи може мені хтось допомогти з наступним: Просте пояснення того, як працює NCE (мені було сказано, що важко розібратися та зрозуміти, тому щось інтуїтивне, що призводить до математики, представленої там, було б чудово) Після пункту …

1
Чому xgboost так швидше, ніж sklearn GradientBoostingClassifier?
Я намагаюся підготувати градієнтну модель для збільшення градієнта на 50 к. Прикладах із 100 числовими функціями. XGBClassifierобробляє 500 дерев протягом 43 секунд на моїй машині, тоді як GradientBoostingClassifierобробляє лише 10 дерев (!) за 1 хвилину і 2 секунди :( Я не намагався виростити 500 дерев, як це займе години. Я …
29 scikit-learn  xgboost  gbm  data-mining  classification  data-cleaning  machine-learning  reinforcement-learning  data-mining  bigdata  dataset  nlp  language-model  stanford-nlp  machine-learning  neural-network  deep-learning  randomized-algorithms  machine-learning  beginner  career  xgboost  loss-function  neural-network  software-recommendation  naive-bayes-classifier  classification  scikit-learn  feature-selection  r  random-forest  cross-validation  data-mining  python  scikit-learn  random-forest  churn  python  clustering  k-means  machine-learning  nlp  sentiment-analysis  machine-learning  programming  python  scikit-learn  nltk  gensim  visualization  data  csv  neural-network  deep-learning  descriptive-statistics  machine-learning  supervised-learning  text-mining  orange  data  parameter-estimation  python  pandas  scraping  r  clustering  k-means  unsupervised-learning 

2
Sparse_categorical_crossentropy vs categorical_crossentropy (кери, точність)
Що краще для точності чи вони однакові? Звичайно, якщо ви використовуєте categorical_crossentropy, ви використовуєте одне гаряче кодування, а якщо ви використовуєте sparse_categorical_crossentropy, ви кодуєте як звичайні цілі числа. Крім того, коли один кращий за іншого?

2
Параметризаційна регресія кута повороту
Скажімо, у мене зображення стрілки зверху вниз, і я хочу передбачити кут цієї стрілки. Це буде від до 360 градусів, або від 0 до 2 π . Проблема полягає в тому, що ця ціль кругла, 0 і 360 градусів точно така ж, і це інваріантність, яку я хотів би включити …

3
Tensorflow Коригування функції витрат для незбалансованих даних
У мене є проблема класифікації сильно незбалансованих даних. Я читав, що надмірне зменшення розміру, а також зміна вартості для недостатньо представлених категоричних результатів призведе до кращого пристосування. Перш ніж це зробити, tensorflow би класифікував кожну інформацію як групу більшості (і набирав би точність понад 90%, настільки ж безглуздо, як це …
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.