Запитання з тегом «optimization»

Використовуйте цей тег для будь-якого використання оптимізації в статистиці.

1
Чому ми не використовуємо непостійні показники навчання для гідного градієнта для речей, відмінних від нейронних мереж?
Література поглибленого вивчення повна розумних хитрощів із використанням непостійних темпів навчання в градієнтному узвозі. Такі речі, як експоненціальний розпад, RMSprop, Adagrad тощо, легко здійснити і доступні у кожному глибокому навчальному пакеті, проте вони, як видається, не існують поза нейронних мереж. Чи є для цього причина? Якщо люди просто не хвилюються, …

1
Обмежена максимальна ймовірність із меншим, ніж повним рангом стовпця
Це питання стосується оцінки обмеженої максимальної вірогідності (REML) у певній версії лінійної моделі, а саме: Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)),Y=X(α)β+ϵ,ϵ∼Nn(0,Σ(α)), Y = X(\alpha)\beta + \epsilon, \\ \epsilon\sim N_n(0, \Sigma(\alpha)), де - матриця ( ), параметризована , як і . - невідомий вектор неприємних параметрів; інтерес полягає в оцінці , і ми маємо . Оцінка …

2
Що таке мінімізація енергії в машинному навчанні?
Я читав про оптимізацію недоброзичливої ​​проблеми в комп’ютерному зорі і натрапив на пояснення нижче щодо оптимізації у Вікіпедії. Я не розумію, чому вони називають цю оптимізацію " мінімізацією енергії " в "Комп'ютерному баченні"? Проблема оптимізації може бути представлена ​​наступним чином: Дано: функція від деякого набору A до реальних чиселf:A→Rf:A→Rf: A …

2
Чому k-засоби не оптимізовані за допомогою градієнтного спуску?
Я знаю, що k-засоби, як правило, оптимізуються за допомогою максимізації очікування . Однак ми могли б оптимізувати його функцію втрат так само, як і будь-яку іншу! Я знайшов деякі документи, які фактично використовують стохастичний градієнтний спуск для великомасштабних k-засобів, але не змогли отримати відповідь на моє питання. Отже, хтось знає, …

2
Оптимізація: корінь всього зла в статистиці?
Я чув таке вираз раніше: "Оптимізація - корінь усього зла в статистиці". Наприклад, головна відповідь у цій темі робить це твердження з посиланням на небезпеку занадто агресивної оптимізації під час вибору моделі. Перше моє запитання наступне: Чи цитата може бути приписана комусь зокрема? (наприклад, у статистичній літературі) Як я розумію, …

1
Бібліотека обмеженої оптимізації для обмежень рівності та нерівності
Будь-які рекомендації щодо вибору бібліотеки з обмеженою оптимізацією, що підходить для моєї функції оптимізації? Я звожу до мінімуму ai) нелінійну функцію з лінійними рівностями та обмеженнями нерівності, і ii) наявний градієнт та гессіан функції. Якщо це допомагає, функція, яку я мінімізую, - це розбіжність Куллбека-Ліблера . constrOptim має справу лише …

2
Перехресне підтвердження та оптимізація параметрів
У мене є питання щодо оптимізації параметрів, коли я використовую 10-кратну перехресну перевірку. Я хочу запитати, чи слід виправляти параметри під час тренінгу моделі кожного зразків, тобто (1) вибирати один набір оптимізованих параметрів для середньої точності кожного згину. або (2) Я повинен знайти оптимізований параметр для кожної складки, а потім …

5
Філософське запитання про логістичну регресію: чому не навчається оптимальне порогове значення?
Зазвичай при логістичній регресії ми підходимо до моделі і отримуємо деякі прогнози на навчальному наборі. Тоді ми перехресно підтверджуємо ці прогнози тренувань (щось подібне тут ) і визначаємо оптимальне порогове значення на основі чогось кривої ROC. Чому ми не включимо перехресну валідацію порогу в реальну модель і не навчимо все …

2
Оптимізація та машинне навчання
Мені хотілося знати, наскільки машинне навчання вимагає оптимізації. З того, що я чув, статистика є важливою математичною темою для людей, які працюють з машинним навчанням. Так само, наскільки важливо, щоб хтось, хто працює з машинним навчанням, дізнався про опуклу або невипуклу оптимізацію?

2
ККТ у двох словах графічно
Об'єктивна Підтвердьте, чи розуміння KKT є правильним чи ні. Шукайте додаткові пояснення та підтвердження на KKT. Фон Намагаючись зрозуміти умови KKT, особливо додаткові умови, які завжди випливають із синього кольору у статтях SVM. Мені не потрібен список абстрактних формул, але мені потрібно конкретні, інтуїтивні та графічні пояснення. Питання Якщо P, …

1
Найсучасніша у спільній фільтрації
Я працюю над проектом спільної фільтрації (CF), тобто заповнюю частково спостережувану матрицю або загалом тензор. Я новачок у цій галузі, і для цього проекту в кінцевому підсумку я повинен порівняти наш метод з іншими відомими, які сьогодні пропонуються запропоновані методи проти них, а саме - найсучасніші у КФ. Мій пошук …

2
Якщо p> n, ласо вибирає не більше n змінних
Одним із мотивів еластичної сітки було таке обмеження LASSO: У випадку ласо вибирає не більше n змінних, перш ніж воно насичується, через характер проблеми опуклої оптимізації. Це, здається, є обмежувальною особливістю для способу вибору змінних. Більше того, ласо не є чітко визначеним, якщо обмежена на L1-норма коефіцієнтів менша за певне …

1
Проблема оптимізації
Мій друг продає моделей блендерів. Деякі з блендерів дуже прості та дешеві, інші - дуже складні та дорожчі. Його дані складаються з розрахунку на кожен місяць із цін кожного блендера (які фіксуються ним) та кількості проданих одиниць для кожної моделі. Щоб встановити якусь позначення, він знає місяцями векторами де p_ …


3
Чи оптимізація PCA опукла?
Цільова функція аналізу головних компонент (PCA) є мінімізація похибки відновлення в нормі L2 (дивіться розділ 2.12 тут Інший вид намагається максимізувати дисперсію на проекції У нас також є відмінний пост тут: .. Яка цільова функція PCA ? ). Моє запитання полягає в тому, що оптимізація PCA опукла? (Я знайшов тут …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.