Запитання з тегом «convergence»

Конвергенція, як правило, означає, що послідовність певної кількості вибірки наближається до постійної, оскільки розмір вибірки має тенденцію до нескінченності. Конвергенція також є властивістю ітеративного алгоритму стабілізувати деяке цільове значення.

1
Діагностика конвергенції Гельмана та Рубіна, як узагальнити роботу з векторами?
Діагностика Гельмана і Рубіна використовується для перевірки конвергенції декількох ланцюгів mcmc, що працюють паралельно. Він порівнює дисперсію всередині ланцюга з дисперсією між ланцюгами, експозиція нижче: Кроки (для кожного параметра): Виконайте m ≥ 2 ланцюгів довжиною 2n від перерізних початкових значень. Відкиньте перші n малюнків у кожному ланцюжку. Обчисліть дисперсію всередині …

4
Інтуїтивне розуміння різниці між послідовним та асимптотично неупередженим
Я намагаюся зрозуміти інтуїтивне розуміння та відчути різницю та практичну різницю між терміном послідовним та асимптотично неупередженим. Я знаю їхні математичні / статистичні визначення, але я шукаю щось інтуїтивне. Мені, дивлячись на їх окремі визначення, вони майже здаються одними і тими ж. Я розумію, що різниця повинна бути тонкою, але …

1
Використовуйте для перевірки гіпотези, що оскільки швидкість конвергенції?
Припустимо, у мене це iid, і я хочу зробити тест на гіпотезу, що дорівнює 0. Припустимо, у мене є великий n і я можу використовувати теорему центрального граничного значення. Я також міг би зробити тест, що дорівнює 0, що має бути еквівалентно тестуванню, що дорівнює 0. Далі, переходить до chi-квадрата, …

2
Чи справедлива теорема Слуцького, коли обидві послідовності сходяться до невиродженої випадкової величини?
Мене бентежить деякі деталі теореми Слуцького : Нехай , дві послідовності скалярних / векторних / матричних випадкових елементів.{Xn}{Xn}\{X_n\}{ Yн}{Yn}\{Y_n\} Якщо у розподілі до випадкового елемента а вірогідно до постійної , то умови, що є незворотним, де позначає конвергенцію розподілу.ХнXnX_nХXXYнYnY_ncccХн+ Yн ХнYн Хн/ Ун →г Х+ c→г c X→г Х/ с,Xn+Yn …

3
Щодо зближення у ймовірності
Нехай {Xn}n≥1{Xn}n≥1\{X_n\}_{n\geq 1} - послідовність випадкових змінних st Xn→aXn→aX_n \to a з імовірністю, де a&gt;0a&gt;0a>0 - фіксована константа. Я намагаюся показати таке: Xn−−−√→a−−√Xn→a\sqrt{X_n} \to \sqrt{a} і aXn→1aXn→1\frac{a}{X_n}\to 1 імовірність. Я тут, щоб перевірити, чи була моя логіка здоровою. Ось моя робота ATTEMPT Для першої частини у нас |Xn−−−√−a−−√|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn−−−√+a−−√|=ϵ|(Xn−−−√−sqrta)+2a−−√||Xn−a|&lt;ϵ⟸|Xn−a|&lt;ϵ|Xn+a|=ϵ|(Xn−sqrta)+2a||\sqrt{X_n}-\sqrt{a}|<\epsilon \impliedby |X_n-a|<\epsilon|\sqrt{X_n}+\sqrt{a}|=\epsilon|(\sqrt{X_n}-sqrt{a})+2\sqrt{a}| …

2
Що відбувається зі співвідношенням ймовірності, коли збирається все більше даних?
Нехай fff , гgg і годhh бути щільність і припустимо, що хi∼ годxi∼hx_i \sim h , i ∈ Ni∈Ni \in \mathbb{N} . Що відбувається зі співвідношенням ймовірності ∏i = 1нf( хi)г( хi)∏i=1nf(xi)g(xi) \prod_{i=1}^n \frac{f(x_i)}{g(x_i)} якn → ∞n→∞n \rightarrow \infty? (Чи сходяться вони? До чого?) Наприклад, ми можемо припустити h = …

3
Ще одне питання про центральну межу теореми
Нехай {Xn:n≥1}{Xn:n≥1}\{X_n:n\ge1\} - послідовність незалежних випадкових величин Бернуллі з P{Xk=1}=1−P{Xk=0}=1k.P{Xk=1}=1−P{Xk=0}=1k.P\{X_k=1\}=1-P\{X_k=0\}=\frac{1}{k}. Встановіть Sn=∑k=1n(Xk−1k), B2n=∑k=1nk−1k2Sn=∑k=1n(Xk−1k), Bn2=∑k=1nk−1k2S_n=\sum^{n}_{k=1}\left(X_k-\frac{1}{k}\right), \ B_n^2=\sum^{n}_{k=1}\frac{k-1}{k^2} Покажіть, щоSnBnSnBn\frac{S_n}{B_n} перетворюється в розподілі до стандартної нормальної змінноїZZZоскількиnnnпрагне до нескінченності. Моя спроба - використовувати CLT Ляпунова, тому нам потрібно показати, що існує δ&gt;0δ&gt;0\delta>0 такий, що limn→∞1B2+δn∑k=1nE[|Xk−1k|2+δ]=0.limn→∞1Bn2+δ∑k=1nE[|Xk−1k|2+δ]=0.\lim_{n\rightarrow \infty}\frac{1}{B_n^{2+\delta}}\sum_{k=1}^{n}E[|X_k-\frac{1}{k}|^{2+\delta}]=0. Тому задайте n ∑ k = …

1
Чи нормальне значення MLE асимптотично, коли ?
Припустимо, має pdf(X,Y)(X,Y)(X,Y) fθ(x,y)=e−(x/θ+θy)1x&gt;0,y&gt;0,θ&gt;0fθ(x,y)=e−(x/θ+θy)1x&gt;0,y&gt;0,θ&gt;0f_{\theta}(x,y)=e^{-(x/\theta+\theta y)}\mathbf1_{x>0,y>0}\quad,\,\theta>0 Тому щільність вибірки отримана з цієї сукупності, тому(X,Y)=(Xi,Yi)1≤i≤n(X,Y)=(Xi,Yi)1≤i≤n(\mathbf X,\mathbf Y)=(X_i,Y_i)_{1\le i\le n} gθ(x,y)=∏i=1nfθ(xi,yi)=exp[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn&gt;0=exp[−nx¯θ−θny¯]1x(1),y(1)&gt;0,θ&gt;0gθ(x,y)=∏i=1nfθ(xi,yi)=exp⁡[−∑i=1n(xiθ+θyi)]1x1,…,xn,y1,…,yn&gt;0=exp⁡[−nx¯θ−θny¯]1x(1),y(1)&gt;0,θ&gt;0\begin{align} g_{\theta}(\mathbf x,\mathbf y)&=\prod_{i=1}^n f_{\theta}(x_i,y_i) \\&=\exp\left[{-\sum_{i=1}^n\left(\frac{x_i}{\theta}+\theta y_i\right)}\right]\mathbf1_{x_1,\ldots,x_n,y_1,\ldots,y_n>0} \\&=\exp\left[-\frac{n\bar x}{\theta}-\theta n\bar y\right]\mathbf1_{x_{(1)},y_{(1)}>0}\quad,\,\theta>0 \end{align} Оцінювач максимальної ймовірності θθ\theta може бути отриманий як θ^(X,Y)=X¯¯¯¯Y¯¯¯¯−−−√θ^(X,Y)=X¯Y¯\hat\theta(\mathbf X,\mathbf Y)=\sqrt\frac{\overline X}{\overline Y} Хочеться знати, нормальний чи поширений цей MLE нормальний …

1
Показати оцінку конверсується до відсотків за допомогою статистики замовлень
Нехай - послідовність iid випадкових змінних, відібраних з альфа-стабільного розподілу , з параметрами .X1,X2,…,X3nX1,X2,…,X3nX_1, X_2, \ldots, X_{3n}α=1.5,β=0,c=1.0,μ=1.0α=1.5,β=0,c=1.0,μ=1.0\alpha = 1.5, \; \beta = 0, \; c = 1.0, \; \mu = 1.0 Тепер розглянемо послідовність , де , для .Y1,Y2,…,YnY1,Y2,…,YnY_1, Y_2, \ldots, Y_{n}Yj+1=X3j+1X3j+2X3j+3−1Yj+1=X3j+1X3j+2X3j+3−1Y_{j+1} = X_{3j+1}X_{3j+2}X_{3j+3} - 1j=0,…,n−1j=0,…,n−1j=0, \ldots, n-1 Я хочу …

3
Статистичний тест для перевірки, коли два подібних часових ряду починають розходитися
Щодо назви, я хотів би знати, чи існує статистичний тест, який може допомогти мені виявити значну розбіжність між двома подібними часовими рядами. Зокрема, дивлячись на рисунок нижче, я хотів би виявити, що серії починають розходитися в момент t1, тобто коли різниця між ними починає бути значною. Більше того, я б …

2
Доведіть або наведіть контрприклад: Якщо , тоXnXnX_n →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, ( ∏ n i = 1 X i ) 1 / nXXX(∏ni=1Xi)1/n(∏i=1nXi)1/n(\prod_{i=1}^{n}X_i)^{1/n} →a.s.→a.s.\,{\buildrel a.s. \over \rightarrow}\, XXX Моя спроба : ФАЛЬС: Припустимо, може приймати лише негативні значення, і припустимо,X n ≡ X ∀ nXXXXn≡XXn≡XX_n \equiv X ∀∀\forall nnn ТОГО …

1
Чи існує теорема, яка говорить про те, що перетворюється в розподілі до нормального, оскільки переходить до нескінченності?
Нехай - будь-який розподіл із визначеним середнім значенням та стандартним відхиленням, . Центральна гранична теорема говорить, що переходить в розподілі до звичайного нормального розподілу. Якщо замінити на вибіркове стандартне відхилення , чи існує теорема, що переходить в розподілі до t-розподілу? Оскільки для великихХХXмкмк\muσσ\sigmaн--√Х¯- мкσнХ¯-мкσ \sqrt{n}\frac{\bar{X} - \mu}{\sigma} σσ\sigmaSSSн--√Х¯- мкSнХ¯-мкS \sqrt{n}\frac{\bar{X} …

1
К-означає: Скільки ітерацій у практичних ситуаціях?
Я не маю досвіду в галузі видобутку даних або великих даних, тому хотілося б почути, як ви поділилися певним досвідом. Чи реально люди керують k-засобами, PAM, CLARA тощо на дійсно великому наборі даних? Або вони просто випадковим чином вибирають з нього зразок? Якщо вони просто беруть вибірку набору даних, чи …

1
Майже впевнене, що конвергенція не означає повного зближення
Ми говоримо, що повністю сходяться до якщо для кожного .Х1,Х2, …X1,X2,…X_1, X_2, \ldotsХXXϵ &gt; 0ϵ&gt;0\epsilon>0 ∑∞n = 1Р ( |Хн- X| &gt;ϵ)&lt;∞∑н=1∞П(|Хн-Х|&gt;ϵ)&lt;∞\sum_{n=1}^\infty \text{P}\left(|X_n-X|>\epsilon\right) <\infty З лемою Бореля Кантеллі прямо вперед, щоб довести, що повна конвергенція передбачає майже впевнену конвергенцію. Я шукаю приклад, були майже впевнені, що конвергенцію неможливо довести з …

1
R лінійна регресія, категоріальна змінна значення «приховане»
Це лише приклад, на який я зустрічався кілька разів, тому у мене немає даних про вибірку. Запуск лінійної регресійної моделі в R: a.lm = lm(Y ~ x1 + x2) x1є суцільною змінною. x2категоричний і має три значення, наприклад "Низький", "Середній" та "Високий". Однак вихід, отриманий R, був би на кшталт: …
10 r  regression  categorical-data  regression-coefficients  categorical-encoding  machine-learning  random-forest  anova  spss  r  self-study  bootstrap  monte-carlo  r  multiple-regression  partitioning  neural-networks  normalization  machine-learning  svm  kernel-trick  self-study  survival  cox-model  repeated-measures  survey  likert  correlation  variance  sampling  meta-analysis  anova  independence  sample  assumptions  bayesian  covariance  r  regression  time-series  mathematical-statistics  graphical-model  machine-learning  linear-model  kernel-trick  linear-algebra  self-study  moments  function  correlation  spss  probability  confidence-interval  sampling  mean  population  r  generalized-linear-model  prediction  offset  data-visualization  clustering  sas  cart  binning  sas  logistic  causality  regression  self-study  standard-error  r  distributions  r  regression  time-series  multiple-regression  python  chi-squared  independence  sample  clustering  data-mining  rapidminer  probability  stochastic-processes  clustering  binary-data  dimensionality-reduction  svd  correspondence-analysis  data-visualization  excel  c#  hypothesis-testing  econometrics  survey  rating  composite  regression  least-squares  mcmc  markov-process  kullback-leibler  convergence  predictive-models  r  regression  anova  confidence-interval  survival  cox-model  hazard  normal-distribution  autoregressive  mixed-model  r  mixed-model  sas  hypothesis-testing  mediation  interaction 

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.