Запитання з тегом «approximation»

Наближення до розподілів, функцій чи інших математичних об'єктів. Наблизити щось означає знайти деяке уявлення про це, яке в деяких відношеннях простіше, але не точно.

4
Орієнтовна статистика замовлень для звичайних випадкових величин
Чи відомі формули для статистики порядку певних випадкових розподілів? Зокрема, було б вдячно також статистика першого та останнього порядку звичайної випадкової величини, але більш загальна відповідь. Редагувати: Для уточнення я шукаю формули наближення, які можна більш-менш явно оцінити, а не точний інтегральний вираз. Наприклад, я бачив наступні два наближення для …


2
Різниця двох ідентичних лонормальних випадкових величин
Нехай X1X1X_1 і - 2 iidrv, де . Я хотів би знати розподіл для .X2X2X_2log(X1),log(X2)∼N(μ,σ)log⁡(X1),log⁡(X2)∼N(μ,σ)\log(X_1),\log(X_2) \sim N(\mu,\sigma)X1−X2X1−X2X_1 - X_2 Найкраще, що я можу зробити, це взяти ряд Тейлора обох і зрозуміти, що різниця - це сума різниці між двома нормальними rv і двома r-chi квадратами на додаток до решти різниці …

2
Чи є методи машинного навчання «алгоритмами наближення»?
Нещодавно виникло питання, схоже на ML, щодо зміни обстановки стекерів, і я опублікував відповідь, рекомендуючи метод Пауелла, градієнтне походження, генетичні алгоритми чи інші "алгоритми наближення". У коментарі хтось сказав мені, що ці методи були "евристикою", а не "алгоритмами наближення" і часто не наближалися до теоретичного оптимуму (оскільки вони "часто застрягають …

4
Як спроектувати новий вектор на простір PCA?
Після проведення аналізу основних компонентів (PCA) я хочу спроектувати новий вектор на простір PCA (тобто знайти його координати в системі координат PCA). Я розрахував PCA мовою R за допомогою prcomp. Тепер я повинен мати можливість помножити свій вектор на матрицю обертання PCA. Чи повинні головні компоненти в цій матриці розташовуватися …
21 r  pca  r  variance  heteroscedasticity  misspecification  distributions  time-series  data-visualization  modeling  histogram  kolmogorov-smirnov  negative-binomial  likelihood-ratio  econometrics  panel-data  categorical-data  scales  survey  distributions  pdf  histogram  correlation  algorithms  r  gpu  parallel-computing  approximation  mean  median  references  sample-size  normality-assumption  central-limit-theorem  rule-of-thumb  confidence-interval  estimation  mixed-model  psychometrics  random-effects-model  hypothesis-testing  sample-size  dataset  large-data  regression  standard-deviation  variance  approximation  hypothesis-testing  variance  central-limit-theorem  kernel-trick  kernel-smoothing  error  sampling  hypothesis-testing  normality-assumption  philosophical  confidence-interval  modeling  model-selection  experiment-design  hypothesis-testing  statistical-significance  power  asymptotics  information-retrieval  anova  multiple-comparisons  ancova  classification  clustering  factor-analysis  psychometrics  r  sampling  expectation-maximization  markov-process  r  data-visualization  correlation  regression  statistical-significance  degrees-of-freedom  experiment-design  r  regression  curve-fitting  change-point  loess  machine-learning  classification  self-study  monte-carlo  markov-process  references  mathematical-statistics  data-visualization  python  cart  boosting  regression  classification  robust  cart  survey  binomial  psychometrics  likert  psychology  asymptotics  multinomial 

1
Помилка нормального наближення до рівномірного розподілу суми
Один наївний метод наближення до нормального розподілу - це об'єднання, можливо, IID випадкових величин, рівномірно розподілених на , потім ревітер та повторна шкала, спираючись на центральну граничну теорему. ( Бічна примітка : Існують більш точні методи, такі як перетворення Бокса - Мюллера .) Сума випадкових величин IID відома як рівномірний …

5
Навіщо турбуватися з наближеннями низького рангу?
Якщо у вас є матриця з n рядками та m стовпцями, ви можете використовувати SVD або інші методи для обчислення наближення низького рангу даної матриці. Однак наближення низького рангу все одно матиме n рядків та m стовпців. Як низькі рангові наближення можуть бути корисними для машинного навчання та обробки природних …

3
Оцініть певний інтервал нормального розподілу
Я знаю, що легкої в обробці формули для CDF нормального розподілу дещо відсутня через складну функцію помилок у ній. Однак мені цікаво, чи є приємна формула для . Або яким може бути наближення "найсучаснішого" до цієї проблеми.N( c-≤ x &lt; c+| μ, σ2)N(c-≤х&lt;c+|мк,σ2)N(c_{-} \leq x < c_{+}| \mu, \sigma^2)

1
Як працює випадкова кухонна мийка?
Минулого року на NIPS 2017 Алі Рахімі та Бен Рехт виграли нагороду за тест часу за свою статтю "Випадкові функції для крупномасштабних машин ядра", де вони ввели випадкові функції, пізніше кодифіковані як алгоритм випадкових мийок на кухні. У рамках оприлюднення своїх робіт вони показали, що їх модель може бути реалізована …

1
Корінна знахідка для стохастичної функції
Припустимо, у нас є функція f( х )f(х)f(x) яку ми можемо спостерігати лише через деякий шум. Ми не можемо обчислити f( х )f(х)f(x) безпосередньо, тільки f( x ) + ηf(х)+ηf(x) + \eta де - якийсь випадковий шум. (На практиці: я обчислюю використовуючи деякий метод Монте-Карло.)f ( x )ηη\etaf( х)f(х)f(x) Які …

5
Похибка апроксимації довірчого інтервалу для середнього значення, коли
Нехай {Xi}ni=1{Xi}i=1n\{X_i\}_{i=1}^n - сімейство iid випадкових величин, що приймають значення в [0,1][0,1][0,1] , що мають середнє μμ\mu та дисперсію σ2σ2\sigma^2 . Простий довірчий інтервал для середнього, використовуючи σσ\sigma коли він відомий, задається П( | X¯- мк | &gt; ε ) ≤ σ2n ε2≤ 1n ε2( 1 ) .П(|Х¯-мк|&gt;ε)≤σ2нε2≤1нε2(1). P( | …

3
Як обчислити ймовірність, пов’язану з абсурдно великими Z-балами?
Програмні пакети для виявлення мережевих мотивів можуть повернути надзвичайно високі показники Z (найвищий показник, який я бачив, - 600 000+, але Z-бали понад 100 є досить поширеними). Я планую показати, що ці Z-бали є хибними. Величезні Z-бали відповідають надзвичайно низьким асоційованим ймовірностям. Значення пов'язаних ймовірностей наведено, наприклад, на сторінці звичайної …

3
Універсальна теорема наближення для згорткових мереж
Універсальна теорема наближення є досить відомим результатом для нейронних мереж, в основному вказуючи, що за деякими припущеннями функція може бути рівномірно наближена нейронною мережею в будь-якій точності. Чи є якийсь аналогічний результат, який стосується конволюційних нейронних мереж?

1
Оцінки "Приблизно нормально" для t-тестів
Я тестую рівність засобів, використовуючи t-тест Вельча. Основний розподіл далеко не нормальний (більш хиткий, ніж приклад у відповідній дискусії тут ). Я можу отримати більше даних, але хотів би дещо принципово визначити, в якій мірі це робити. Чи є хороша евристика для оцінки оцінки прийнятності розподілу вибірки? Які відхилення від …

1
Приблизний розподіл продукту N нормального iid? Особливий випадок μ≈0
З огляду на н.о.р. , і , шукаю:X n ≈ N ( μ X , σ 2 X ) μ X ≈ 0N≥ 30N≥30N\geq30Хн≈ N( мкХ, σ2Х)Xn≈N(μX,σX2)X_n\approx\mathcal{N}(\mu_X,\sigma_X^2)мкХ≈ 0μX≈0\mu_X \approx 0 точне наближення розподілу закритої форми YN= ∏1NХнYN=∏1NXnY_N=\prod\limits_{1}^{N}{X_n} асимптотичне ( експоненціальне ?) наближення того ж добутку Це окремий випадок більш загального …

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.