За максимальною оцінкою ймовірності ви намагаєтеся максимально збільшити ; однак максимізація цього еквівалентна максимізації p x ( 1 - p ) n - x для нерухомого x .nCx px(1−p)n−xpx(1−p)n−xx
Власне, ймовірність гаусса і пуассона також не передбачає їхніх провідних констант, тому цей випадок подібно до таких, як
Звернення до коментарів з ОП
Ось трохи детальніше:
По-перше, - загальна кількість успіхів, тоді як x i - це один випробування (0 або 1). Тому:xxi
∏i=1npxi(1−p)1−xi=p∑n1xi(1−p)∑n11−xi=px(1−p)n−x
Це показує, як ви отримуєте фактори з імовірністю (виконавши вищезазначені кроки назад).
p
Ми можемо отримати це, взявши журнал функції ймовірності та виявивши, де його похідна дорівнює нулю:
ln(nCx px(1−p)n−x)=ln(nCx)+xln(p)+(n−x)ln(1−p)
Take derivative wrt p and set to 0:
ddpln(nCx)+xln(p)+(n−x)ln(1−p)=xp−n−x1−p=0
⟹nx=1p⟹p=xn
Notice that the leading constant dropped out of the calculation of the MLE.
More philosophically, a likelihood is only meaningful for inference up to a multiplying constant, such that if we have two likelihood functions L1,L2 and L1=kL2, then they are inferentially equivalent. This is called the Law of Likelihood. Therefore, if we are comparing different values of p using the same likelihood function, the leading term becomes irrelevant.
At a practical level, inference using the likelihood function is actually based on the likelihood ratio, not the absolute value of the likelihood. This is due to the asymptotic theory of likelihood ratios (which are asymptotically chi-square -- subject to certain regularity conditions that are often appropriate). Likelihood ratio tests are favored due to the Neyman-Pearson Lemma. Therefore, when we attempt to test two simple hypotheses, we will take the ratio and the common leading factor will cancel.
NOTE: This will not happen if you were comparing two different models, say a binomial and a poisson. In that case, the constants are important.
Of the above reasons, the first (irrelevance to finding the maximizer of L) most directly answers your question.