Сторінка Вікіпедії, яку ви надали, насправді не використовує термін "трансформація, що стабілізує дисперсію". Термін "дисперсія-стабілізуюча трансформація" зазвичай використовується для позначення перетворень, які роблять дисперсію випадкової величини постійною. Хоча у випадку Бернуллі, це саме те, що відбувається з трансформацією, це не зовсім мета. Мета - отримати рівномірний розподіл, а не лише стабілізацію дисперсії.
Нагадаємо, що однією з головних цілей використання Джефріса є те, що воно є інваріантним під час трансформації. Це означає, що якщо ви повторно параметризуєте змінну, попередня не зміниться.
1.
(1/2,1/2)
pγ(γ)∝1γ(1−γ)−−−−−−−√.
γ=sin2(θ)θθ=arcsin(γ−−√)0<γ<10<θ<π/2sin2(x)+cos2(x)=1
Fθ(x)fθ(x)=P(θ<x)=P(sin2(θ)<sin2(x))=P(γ<sin2(x))=Fγ(sin2(x))=dFγ(sin2(x)dx=2sin(x)cos(x)pγ(sin2(x))∝sin(x)cos(x)1sin2(x)(1−sin2(x))−−−−−−−−−−−−−−−−√=1.
Thus θ is the uniform distribution on (0,π/2). This is why the sin2(θ) transformation is used, so that the re-parametrization leads to a uniform distribution. The uniform distribution is now the Jeffreys prior on θ (since Jeffreys prior is invariant under transformation). This answers your first question.
2.
Often in Bayesian analysis one wants a uniform prior when there is not enough information or prior knowledge about the distribution of the parameter. Such a prior is also called a "diffuse prior" or "default prior". The idea is to not commit to any value in the parameter space more than other values. In such a case the posterior is then completely dependent on the data likelihood. Since,
q(θ|x)∝f(x|θ)f(θ)∝f(x|θ).
If the transformation is such that the transformed space is bounded, (like (0,π/2) in this example), then the uniform distribution will be proper. If the transformed space is unbounded, then the uniform prior will be improper, but often the resulting posterior will be proper. Although, one should always verify that this is the case.