Запитання з тегом «feature-selection»

Методи та принципи вибору підмножини атрибутів для використання в подальшому моделюванні

1
GAM vs LOESS проти сплайнів
Контекст : Я хочу , щоб намалювати лінію в діаграмі розсіювання , що не виникає параметрическими, тому я використовую geom_smooth()в ggplotв R. Він автоматично повертається, geom_smooth: method="auto" and size of largest group is >=1000, so using gam with formula: y ~ s(x, bs = "cs"). Use 'method = x' to …

1
Аналіз чутливості в глибоких нейронних мережах
Після відповіді на питання ( витягування вагової важливості з одношарової мережі передачі вперед ) я шукаю висновок про релевантність входів у нейронні мережі. Враховуючи глибоку сітку, де реконструкція важливості входу шляхом просування назад через шари від вивідного вузла, що цікавить, може бути важким або забираючи багато часу, мені було цікаво, …

1
Байєсівське ласо проти шипа та плити
Питання: Які переваги / недоліки використання одного попереднього над іншим для вибору змінної? Припустимо, я маю ймовірність: де я можу поставити будь- який з пріорів: w i ∼ π δ 0 + ( 1 - π ) N ( 0 , 100 )у∼ N( Xw , σ2Я)у∼N(Хш,σ2Я)y\sim\mathcal{N}(Xw,\sigma^2I) або: w i …

3
Чому нейронні мережі потребують вибору / інженерії функцій?
Особливо в контексті змагань з караглів я помітив, що продуктивність моделі - це все, що стосується вибору / інженерії функцій. Хоча я цілком можу зрозуміти, чому це стосується тих випадків, коли ми маємо справу з більш звичайними / старошкільними алгоритмами ML, я не розумію, чому це було б у випадку …

2
Чому найкращому вибору підмножини не сприяє порівняно з ласо?
Я читаю про найкращий вибір підмножини в книзі «Елементи статистичної книги». Якщо у мене є 3 предиктори , я створюю підмножини:2 3 = 8х1, х2, х3x1,x2,x3x_1,x_2,x_323= 823=82^3=8 Підмножина без прогнозів підмножина з предикторомх1x1x_1 підмножина з предикторомх2x2x_2 підмножина з предикторомх3x3x_3 підмножина з предикторамих1, х2x1,x2x_1,x_2 підмножина з предикторамих1, х3x1,x3x_1,x_3 підмножина з предикторамих2, …

2
Конфліктні підходи до вибору змінної: AIC, p-значення або те й інше?
Як я розумію, вибір змінних на основі p-значень (принаймні, в контексті регресії) сильно хибний. Здається, вибір змінних на основі AIC (або подібного) також вважається дефектом з деяких причин, хоча це здається трохи незрозумілим (наприклад, дивіться моє запитання та деякі посилання на цю тему тут: Що саме таке "поетапний вибір моделі"? …

2
Чим відрізняється вибір функції та зменшення розмірності?
Я знаю, що і вибір функції, і зменшення розмірності спрямовані на зменшення кількості ознак у вихідному наборі функцій. Яка точна різниця між ними, якщо ми робимо те саме в обох?

2
Якщо p> n, ласо вибирає не більше n змінних
Одним із мотивів еластичної сітки було таке обмеження LASSO: У випадку ласо вибирає не більше n змінних, перш ніж воно насичується, через характер проблеми опуклої оптимізації. Це, здається, є обмежувальною особливістю для способу вибору змінних. Більше того, ласо не є чітко визначеним, якщо обмежена на L1-норма коефіцієнтів менша за певне …

1
Чому у випадковому лісі чомусь випадковий підмножина функцій вибирається на рівні вузла, а не на рівні дерева?
Моє запитання: Чому випадковий ліс розглядає випадкові підмножини ознак для розщеплення на рівні вузла в межах кожного дерева, а не на рівні дерева ? Передумови: Це щось із питань історії. Тін Кам Хо опублікував цю статтю про будівництво «рішення лісу» шляхом випадкового вибору підмножини функцій для використання для вирощування кожного …

2
Чи є обставини, коли слід застосовувати поетапну регресію?
Поступова регресія в минулому використовувалася в багатьох біомедичних працях, але, схоже, це покращується з кращою освітою багатьох її питань. Однак багато старих рецензентів все ще просять цього. Які обставини, коли поетапна регресія відіграє певну роль і їх слід використовувати, якщо такі є?

2
Навіщо використовувати групове ласо замість ласо?
Я прочитав те, що груповий ласо використовується для вибору змінних і обмеженості в групі змінних. Я хочу знати інтуїцію, що стоїть за цим твердженням. Чому груповий ласо віддається перевагу ласо? Чому шлях розв’язання групового ласо не є кусочно лінійним?

1
Поясніть кроки алгоритму LLE (локального лінійного вбудовування)?
Я розумію, що основний принцип алгоритму для LLE складається з трьох етапів. Пошук сусідства кожної точки даних за деяким показником, таким як k-nn. Знайдіть ваги для кожного сусіда, який позначає вплив, який має сусід на точку даних. Побудуйте низькомірне вбудовування даних на основі обчислених ваг. Але математичне пояснення кроків 2 …


2
Пошук найкращих особливостей у моделях взаємодії
У мене є список білків з їх значеннями. Прикладна таблиця виглядає так: ...............Feature1...Feature2...Feature3...Feature4 Protein1 Protein2 Protein3 Protein4 Рядки - це білки, а стовпці - особливості. У мене також є список білків, які взаємодіють; наприклад Protein3, Protein4 Protein1, Protein2 Protein4, Protein1 Проблема : Для попереднього аналізу я хочу знати, які особливості …

3
Кластеризація розподілу ймовірностей - методи та показники?
У мене є кілька даних даних, кожен з яких містить 5 векторів агломерованих дискретних результатів, результати кожного вектора генеруються різним розподілом (конкретний вид якого я не впевнений, я найкраще здогадуюсь - Вейбул. Параметр форми змінюється десь навколо експоненціальної до потужності закон (від 1 до 0, приблизно).) Я хочу використовувати алгоритм …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.