Яка різниця в значенні між позначеннями і які зазвичай використовуються у багатьох книгах і працях?
Яка різниця в значенні між позначеннями і які зазвичай використовуються у багатьох книгах і працях?
Відповіді:
Я вважаю, що причиною цього є парадигма вірогідності (хоча я не перевіряв фактичну історичну правильність наведеного нижче, це розумний спосіб зрозуміти, яким чином був йот).
Скажімо, в налаштуваннях регресії ви мали б розподіл: p (Y | x, beta), що означає: розподіл Y, якщо ви знаєте (умовно) значення x і beta.
Якщо ви хочете оцінити бета-версію, ви хочете збільшити ймовірність: L (beta; y, x) = p (Y | x, beta) По суті, ви зараз розглядаєте вираз p (Y | x, beta) як функція бета-версії, але крім цього, різниці немає (для математично правильних виразів, які ви можете правильно вивести, це необхідність --- хоча на практиці ніхто не турбує).
Тоді в байєсівських налаштуваннях різниця між параметрами та іншими змінними незабаром згасає, тому ви почали використовувати обидва позначення змішано.
Отже, по суті: фактичної різниці немає: вони обоє вказують на умовний розподіл речі зліва, умовно - на речі (речі) справа.
- щільність випадкової величини X у точці x , причому θ є параметром розподілу. f ( x , θ ) - спільна щільність X і Θ в точці ( x , θ ) і має сенс лише, якщо Θ випадкова величина. f ( x | θ ) - умовний розподіл X, заданого Θ , і знову ж таки, має сенс лише якщо - випадкова величина. Це стане набагато зрозумілішим, коли ви ввійдете далі в книгу і подивитесь на байєсівський аналіз.
- те саме, що , просто означає, що - фіксований параметр, а функція - функція . , OTOH - це елемент сімейства (або безлічі) функцій, де елементи індексуються . Тонка відмінність, можливо, але важлива, особливо. коли настає час оцінити невідомий параметр на основі відомих даних ; в цей час змінюється іфіксовано, що призводить до "функції ймовірності". Вживання частіше зустрічається серед статистиків серед математиків.
Хоча це не завжди було таким чином, в наші дні зазвичай використовується, коли d , w не є випадковими змінними (що не означає, що вони обов'язково відомі). P ( z | d , w ) вказує на кондиціонування значень d , w . Кондиціонування - це операція над випадковими змінними, і як така використовується ця позначення, коли d , w не є випадковими змінними заплутаними (і трагічно поширеними).
Як зазначає @Nick Sabbe, є загальним позначенням розподілу вибірки спостережуваних даних y . Деякі відвідувачі будуть використовувати це позначення, але наполягають, що Θ не є випадковою змінною, що є зловживанням IMO. Але вони там не мають монополії; Я бачив, як це роблять і байєси, торкаючись фіксованих гіперпараметрів наприкінці умовних умов.