Якщо ви використовували повернення журналу, то ви зробили незначну помилку, але якщо ви використовували майбутнє значення, розділене на теперішнє значення, то ваша ймовірність неправильна. Насправді ваша ймовірність помилкова в будь-якому випадку. Це не так вже й неправильно.
Вважайте, що статистика - це будь-яка функція даних. Повернення - це не дані, це перетворення даних. Вони - майбутня цінність, поділена на теперішню вартість. Ціни - дані. Ціни повинні мати функцію розподілу, але функція розподілу для повернення повинна залежати виключно від характеру цін.
pтpt + 1
pt + 1pт- 1.
1πσσ2+ ( у- β1х1- β2х2⋯ - βнхн- α )2.
OLS найкраще підходить до спостережуваних даних, навіть якщо це неправильне рішення. Байєсівські методи намагаються знайти функцію генерації даних через імовірність. Ви мали ймовірність помилятися, тому її не змогли знайти.
У мене є документ про це, якщо вам потрібна додаткова інформація.
EDIT
Я думаю, що ви зрозуміли неправильно. Якби ви перетворили ймовірність на функцію щільності і прийняли очікування, ви виявите, що її немає. За доказом Августина Коші в 1852 році, а може, і в 1851 році, будь-яка форма рішення найменших квадратів є абсолютно неточною. Це завжди вийде з ладу. Справа не в тому, що вам слід використовувати стандартну регресію, оскільки байєсівська чутливість до ймовірності, це те, що Байєс - єдине доступне рішення, яке є прийнятним, за окремими винятками для деяких незвичних особливих випадків.
Роблячи емпіричне тестування з цього приводу, і перш ніж я прочитав достатню кількість математики, я наївно подумав, що байєсівське та частотське рішення повинні відповідати. Приблизно існує теорема, яка говорить про те, що як вибірка стане достатньо великою, вони зближаться. Я використовував усі торги в кінці дня у Всесвіті CRSP з 1925-2013, щоб перевірити це. Це не те, що говорить теорема. Я неправильно розумів правила.
Я також спробував проблему в журналах, і вона все ще не відповідала. Тож я щось зрозумів, усі розподіли є формами, і тому я сконструював геометричне рішення, щоб визначити, яке рішення було правильним. Я трактував це як чисту проблему геометрії, щоб визначити, яка алгебраїчна відповідь відповідає даним.
Байєсівський збігався. Це привело мене до дуже математичного шляху, тому що я не міг зрозуміти, чому неупереджений оцінювач так помилявся. Тільки для запису, використовуючи розрізнені прибутки за період 1925-2013 та вилучаючи фірми-оболонки, закриті фонди тощо, розбіжність між центром розташування становить 2%, а міра ризику занижена на 4% для річної віддачі . Ця невідповідність стосується перетворення журналу, але з іншої причини. Він може бути різним для окремих індексів або підмножини даних.
Причина розбіжності двостороння. Перший полягає в тому, що пов'язані розподіли не мають достатньої статистики. Для певних типів проблем це не має значення. Однак для проективних цілей, таких як прогнозування або розподіл, вони мають велике значення. Друга причина полягає в тому, що неупереджений оцінювач завжди є версією середнього, але розподіл не має середнього значення.
Густина вище не є членом експоненціальної родини, як це нормальне або гамма-розподіл. За теоремою Пітмана – Коопмана – Дармуа не існує достатньої точкової статистики для параметрів. Це означає, що будь-яка спроба створити оцінювач точок повинна викинути інформацію. Це не є проблемою для байєсівських рішень, оскільки задня частина - це ціла щільність, і якщо вам знадобиться точкова оцінка, ви можете знайти прогнозну щільність і мінімізувати функцію витрат над нею, щоб зменшити її до однієї точки. Байєсівська ймовірність завжди мінімально достатня.
Мінімальний неупереджений оцінювач для вищевказаної функції полягає в тому, щоб зберегти центральні 24,6% даних, знайти її обрізане середнє значення та відкинути решту даних. Це означає, що понад 75% даних скидається, а інформація втрачається. Просто зауважте, це може бути 24,8%, оскільки я працюю з пам’яті. Папір Ротенберга ви можете знайти за адресою:
Ротенберг, Техас і Ф.М. Фішер, К.Б. Тиланус, Примітка про оцінку зразка Коші, Журнал Американської статистичної асоціації, 1964, т. 59 (306), стор 460-463
Друге питання мене здивувало. Поки я не займався геометрією, я не розумів, в чому причина. Повернення обмежуються внизу на рівні -100%. Це зміщує медіану на 2%, а міжквартильний діапазон зміщується на 4%, хоча половина маси все ще знаходиться в тих же точках. Напівмаса - це належна міра масштабу, але півширина - ні. Якби не було усічення, то половина ширини і половина маси були б у однакових точках. Аналогічно, медіана і режим залишаться в одній точці. Медіана - це повернення для середнього суб'єкта господарювання або принаймні середньої торгівлі. Таким чином, це завжди місце MVUE і середнє значення журналу.
Правильне розуміння теореми полягає в тому, що всі баєсові оцінки є допустимими оцінниками. Частотні оцінювачі є допустимими оцінками, якщо виконується одна з двох умов. Перший полягає в тому, що в кожному зразку частота і байесовское рішення однакові. Друга полягає в тому, що якщо обмежувальне рішення методу Байесяна відповідає рішенню Частолістського, то рішення Часткового лікаря є допустимим.
Усі допустимі оцінювачі сходяться до одного і того ж рішення, коли розмір вибірки буде досить великим. Оцінювач частоти передбачає, що його модель є справжньою моделлю, а дані - випадковими. Байєсівський припускає, що дані вірні, але модель є випадковою. Якщо у вас було нескінченна кількість даних, то суб'єктивна модель повинна сходитися до реальності. Якщо у вас було нескінченна кількість даних, але неправильна модель, то модель Частота зблизиться з реальністю з нульовою вірогідністю.
У цьому випадку байєсівське рішення, за розумними пріорами, завжди буде стохастично домінувати над будь-яким частотологічним оцінювачем через усічення та втрату інформації для створення оцінювача.
У журналах функція вірогідності - це розподіл сектантів гіперболічного типу. Він має кінцеву дисперсію, але ніякої коваріації. Матриця коваріації, знайдена за допомогою OLS, є артефактом даних і не вказує на параметр, який існує в базових даних. Як і в сирому вигляді, і в колодах журналу не утворюється нічого, але і нічого не залежить. Натомість існують набагато складніші відносини, які порушують визначення коваріації, але в яких вони можуть входити.
Markowitz та Usman майже знайшли це у своїй роботі над дистрибутивами, але гіперболічний семантичний розподіл не в сім'ї Пірсонів, і вони неправильно інтерпретували дані, помічаючи, що, коли ви змінюєте розподіл із необроблених даних на журнал даних, ви також змінюєте його статистичні властивості . Вони в основному з’ясували це, але пропустили його, оскільки не мали підстав шукати його і не усвідомлювали ненавмисних наслідків використання журналів.
У мене немає Марковита та Усмана, які цитують мене зі мною, де я перебуваю, але вони зробили одну з небагатьох дуже хороших робіт при оцінці розподілу, який там знаходиться.
У будь-якому випадку, я не використовую JAGS. Я поняття не маю, як це зробити. Я кодую всі свої роботи MCMC вручну.
У мене є документ, який набагато більш повний і точний на цю тему:
Harris, DE (2017) Розподіл повернень. Журнал математичних фінансів, 7, 769-804.
Він надасть вам метод побудови розподілів для будь-якого класу активів або пасивів, а також коефіцієнти обліку.
Я був багатомовним, але я міг бачити, що ви неправильно розумієте зв’язок між Бейсом та методами Пірсона-Неймана. Ви їх перевернули. Байєс завжди працює, але ви захоплені попередньою щільністю, яка порушить ваше рішення. Завдяки належному попередньому вам гарантується упереджений оцінювач, і для цього типу імовірності функція, я вважаю, що ви повинні використовувати належний до того, щоб гарантувати інтеграцію до єдності. Методи частого лікування швидко і зазвичай працюють. Вони неупереджені, але можуть бути недійсними.