Редагувати: Ця відповідь заснована на неправильному припущенні, що ймовірність граничних підрахунків, заданих є лише функцією граничних ймовірностей і . Я все ще думаю про це.px,ypx=∑ypx,ypy=∑xpx,y
Наступні помилки:
Як згадується в коментарі, проблема з пошуку "максимальної оцінки ймовірності для полягає в тому, що він не є унікальним. Наприклад, розглянемо випадок із двійковими та маргіналами . Два оцінкиpx,yX,YS1=S2=T1=T2=10
p=(120012),p=(14141414)
мають однакові граничні ймовірності та у всіх випадках, а отже, мають однакові ймовірності (обидва вони максимізують функцію ймовірності, як ви можете перевірити).pxpy
Дійсно, незалежно від того, якими є маргінали (поки два з них не мають нуля в кожному вимірі), рішення максимальної вірогідності не є єдиним. Я докажу це для двійкової справи. Нехай є рішенням максимальної ймовірності. Не втрачаючи загальності, припустимо, . Тоді має однакові маргінали і, таким чином, також є рішенням максимальної ймовірності.p=(acbd)0<a≤dp=(0c+ab+ad−a)
Якщо ви хочете додатково застосувати обмеження максимальної ентропії, тоді ви отримаєте унікальне рішення, яке, як заявив Ф. Тюсселл, є рішенням, в якому незалежні. Ви можете побачити це так:X,Y
Ентропія розподілу ; максимізація з урахуванням і (рівнозначно, де і ) за допомогою множників Лагранжа дає рівняння:H(p)=−∑x,ypx,ylogpx,y∑xpx,y=py∑ypx,y=pxg⃗ (p)=0gx(p)=∑ypx,y−pxgy(p)=∑xpx,y−py
∇H(p)=∑k∈X∪Yλk∇gk(p)
Усі градієнти кожного дорівнюють 1, тому для координації це працюєgk
1−logpx,y=λx+λy⟹px,y=e1−λx−λy
плюс початкові обмеження і . Ви можете переконатися, що це задоволено, коли та , даючи∑xpx,y=py∑ypx,y=pxe1/2−λx=pxe1/2−λy=py
px,y=pxpy.
maximum-entropy