Деякі джерела кажуть, що ймовірність функції не є умовною ймовірністю, деякі кажуть, що вона є. Це дуже бентежить мене.
Згідно з більшістю джерел, які я бачив, вірогідність розподілу з параметром повинна бути добутком функцій масової ймовірності, заданих зразками :
Наприклад, у логістичній регресії ми використовуємо алгоритм оптимізації для максимізації функції ймовірності (максимальна оцінка ймовірності) для отримання оптимальних параметрів і, отже, остаточної моделі LR. Враховуючи навчальних зразків, які ми вважаємо незалежними один від одного, ми хочемо максимально добути добуток ймовірностей (або спільних функцій маси ймовірностей). Це здається мені цілком очевидним.
Відповідно до відносин між: ймовірність, умовна ймовірність та рівень відмови , "ймовірність не є ймовірністю і не є умовною ймовірністю". Він також зазначав, що "ймовірність є умовною ймовірністю лише в байєсівському розумінні ймовірності, тобто, якщо припустити, що - випадкова величина".
Я читав про різні перспективи вирішення проблеми навчання між частопеціалістами та баєсами.
Згідно з джерелом, для байєсівського умовиводу маємо апріорі , ймовірність P ( X | θ ) , і ми хочемо отримати задній P ( θ | X ) , використовуючи байєсівську теорему:
Я не знайомий з байєсівським висновком. Як так ( який обумовлений розподілом спостережуваних даних за його параметрами, також називається ймовірністю? У Вікіпедії сказано, що іноді пишеться L ( θ | X ) = p ( X | θ ) . Що це означає?
чи є різниця між визначеннями частопеніста і баєсіана щодо ймовірності ??
Спасибі.
Редагувати:
Існують різні способи інтерпретації теореми Байєса - байєсівська інтерпретація та частота інтерпретація (Див .: теорема Байєса - Вікіпедія ).