Висновок проти оцінки?


30

Які відмінності між "висновком" та "оцінкою" в контексті машинного навчання ?

Як новачок, я відчуваю, що ми підводимо випадкові величини та оцінюємо параметри моделі. Чи правильно це моє розуміння?

Якщо ні, то в чому полягають відмінності, і коли я повинен використовувати який?

Також, який із них є синонімом «вчитися»?


Я знайшов цю відповідь у Quora і не впевнений у її правильності.
Сіббс азартні ігри

4
Машинне навчання тільки автоматизований статистика (по - моєму), так що я не впевнений , що визначення відрізнятимуться за статистикою в більш загальному
shadowtalker

5
Канонічна статистична література робить чітке і послідовне розмежування між висновковими властивостями передбачуваної базової моделі (в теоретичній рамці прийняття рішень) та прогнозуванням значень випадкових величин. Оцінка - це особливий вид умовиводу. Вони можуть протиставлятися дослідженню та певною мірою тестуванню гіпотез. "Вчіться", як перехідне дієслово, не має стандартного статистичного значення.
whuber

@whuber, дурна пропозиція - зроби це відповідь? ..
Стаск

2
@StasK Було б - хіба воно не стосується питання, яке задає питання про машинне навчання, а не про статистику. Я запропонував цей коментар, намагаючись надати трохи досвіду для розуміння та оцінки відповідей на ML, тим більше, що, здається, деякі з цих відповідей роблять нестандартні відмінності між висновками, оцінкою та прогнозуванням.
whuber

Відповіді:


30

Статистичний висновок робиться з усієї сукупності висновків, які можна зробити із заданого набору даних та відповідної гіпотетичної моделі, включаючи відповідність зазначеної моделі. Цитувати з Вікіпедії ,

Висновок - це дія чи процес отримання логічних висновків із приміщень, відомих або прийнятих як істинні.

і,

Статистичний умовивід використовує математику для висновку за наявності невизначеності.

Оцінка - це лише один аспект умовиводу, коли один замінює невідомі параметри (пов'язані з гіпотетичною моделлю, яка генерувала дані) оптимальними рішеннями, заснованими на даних (і, можливо, попередньою інформацією про ці параметри). Він завжди повинен бути пов'язаний з оцінкою невизначеності повідомлених оцінок, оцінкою, яка є невід'ємною частиною умовиводу.

Максимальна ймовірність - це один екземпляр оцінки, але вона не охоплює всього висновку. Навпаки, байєсівський аналіз пропонує повну машину висновку.


4
+1, особливо для "Це завжди повинно бути пов'язано з оцінкою невизначеності повідомлених оцінок", що не порушено в машинному навчанні та "науці даних". Просто порівняльний аналіз порівняно з відомим набором даних - це не те.
Момо

4

Хоча оцінка сама по собі спрямована на визначення значень невідомих параметрів (наприклад, коефіцієнтів у логістичній регресії або в розділювальній гіперплані в підтримуючих векторних машинах), статистичний висновок намагається приєднати міру невизначеності та / або твердження ймовірності до значення параметрів (стандартні помилки та довірчі інтервали). Якщо модель, яку припускає статистик, є приблизно правильною, то за умови, що нові вхідні дані продовжують відповідати цій моделі, твердження про невизначеність можуть мати певну правду в них і визначають, як часто ви будете робити помилки при використанні модель для прийняття Ваших рішень.

Джерела тверджень про ймовірність є подвійними. Іноді можна припустити базовий розподіл ймовірностей того, що ти вимірюєш, і за допомогою деяких математичних чаклунств (багатоваріантна інтеграція гауссового розподілу тощо) отримати розподіл ймовірності результату (середнє значення вибірки гауссових даних є самим Гауссом ). Сполучені пріори в баєсівській статистиці потрапляють у цю категорію чаклунства. В іншому випадку доводиться покладатися на асимптотичні (великі вибірки) результати, які стверджують, що у досить великій вибірці речі мають поводитись певним чином (теорема центрального граничного значення: середнє значення вибірки даних, що є середнім а дисперсія σ 2 приблизно гауссова із середнім μ та дисперсією σμσ2μ незалежно від форми розподілу вихідних даних).σ2/n

Найбільш близьким до цього є машинне навчання - це крос-валідація, коли вибірку розділено на навчальну та валідаційну частину, при цьому остання ефективно говорить: "якщо нові дані схожі на старі дані, але цілком не пов'язані з тими даними, які використовувались при налаштуванні моєї моделі, тоді реалістична міра рівня помилок така і така ". Він виводиться повністю емпірично, використовуючи одну і ту ж модель на даних, а не намагаючись виводити властивості моделі, роблячи статистичні припущення та залучаючи будь-які математичні результати, подібні до вище CLT. Можливо, це чесніше, але оскільки воно використовує менше інформації, а значить, вимагає більших розмірів вибірки. Крім того, це неявно передбачає, що процес не змінюється,

Хоча словосполучення "виводити заднє" може мати сенс (я не баєс, я не можу насправді сказати, що є прийнятою термінологією), я не думаю, що багато чого бере участь у прийнятті будь-яких припущень у цьому наступальному кроці. Усі припущення Байєса є (1) у попередній та (2) у передбачуваній моделі, і як тільки вони встановлені, заднє випливає автоматично (принаймні теоретично через теорему Байєса; практичні кроки можуть бути складними, і Sipps Gambling ... Вибачте, вибірка Гіббса може бути відносно легким компонентом потрапляння на цю задню частину). Якщо "висновок заднього" посилається на (1) + (2), то для мене це аромат статистичного висновку. Якщо (1) і (2) викладені окремо, а "висновок заднього" - це щось інше, то я не хочу "


2

Припустимо, у вас є репрезентативна вибірка сукупності.

Висновок - це коли ви використовуєте цей зразок, щоб оцінити модель і заявити, що результати можна з певною точністю поширити на всю сукупність. Зробити висновок - це зробити припущення щодо населення, використовуючи лише репрезентативний зразок.

Оцінка - це коли ви вибираєте модель, яка відповідає вашому зразку даних, і з певною точністю обчислюєте параметри цієї моделі. Це називається оцінкою, оскільки ви ніколи не зможете обчислити справжні значення параметрів, оскільки у вас є лише зразок даних, а не вся сукупність.


"Висновок - це коли ви використовуєте зразок для оцінки моделі" (і, таким чином, для оцінки його параметрів). "Оцінка - це коли ви обчислюєте ... параметри моделі". Ви бачите якусь різницю?
nbro

2

Це спроба дати відповідь для тих, хто не має статистичних даних. Для тих, хто цікавиться більш детальними відомостями, існує багато корисних посилань ( таких як, наприклад, ) на цю тему.

Коротка відповідь:

Оцінка -> знайти невідомі значення (оцінки) для предмета, що цікавить

Статистичний висновок -> використовувати імовірний розподіл предмета, що цікавить, щоб зробити імовірнісні висновки

Довга відповідь:

Термін "оцінка" часто використовується для опису процесу знаходження оцінки невідомого значення, тоді як "умовивід" часто посилається на статистичний висновок, процес виявлення розподілів (або характеристик) випадкових змінних та їх використання для отримання висновків.

Подумайте над тим, щоб відповісти на питання: Наскільки високий середній чоловік у моїй країні?

Якщо ви вирішили знайти кошторис, ви можете прогулятися пару днів і виміряти незнайомців, яких ви зустрінете на вулиці (створити вибірку), а потім обчислити свою оцінку, наприклад, як середній показник вашої вибірки. Ви щойно зробили якусь оцінку!

З іншого боку, ви можете знайти більше, ніж якусь оцінку, яка, як ви знаєте, є єдиним числом і, мабуть, помиляється. Ви можете поставити за мету відповісти на це питання з певною впевненістю, наприклад: Я на 99% впевнений, що середній зріст людини в моїй країні становить від 1,60 м до 1,90 м.

Для того, щоб висловити таке твердження, вам потрібно буде оцінити розподіл по висоті серед людей, з якими ви зустрічаєтесь, і зробити свої висновки на основі цих знань - що є основою статистичного висновку.

Найважливіше, про що слід пам’ятати (як зазначено у відповіді Сіань), - це те, що пошук оцінювача є частиною статистичного висновку.


1
"Наскільки високим буде наступний випадковий чоловік" - це питання статистичного прогнозування, а не оцінки. "Який діапазон середніх 95% всіх людей" - це (інтервальна) оцінка. Хоча ці два питання (і способи вирішення) тісно пов'язані між собою і звучать схоже, але вони є різними важливими способами - і на них також по-різному. Різниця виникає із випадковості наступної людини у першому питанні, якої немає у другому питанні.
whuber

Я згоден, що приклади не є ідеальними. Враховуючи характер питання, я намагався навести приклади, з якими нестатист був би дуже знайомий. Моя найпростіша відповідь на "оцінку" полягала б у тому, що вона передбачає пристосування параметрів статистичної моделі, але тоді я запровадив терміни "підгонка" та "статистична модель", які вимагають пояснення. Зрештою, хоча прогноз, описаний у прикладі, дивиться в майбутньому, я все одно вважаю це (точковою) оцінкою.
змістом

Змінено приклад, щоб він не містив передбачення.
значуще -

1

Що ж, сьогодні є люди з різних дисциплін, які роблять свою кар’єру в області ML, і, ймовірно, вони говорять дещо іншими діалектами.

Однак якими б термінами вони не користувалися, поняття, що стоять за ними, є різними. Тому важливо зрозуміти ці поняття, а потім перекласти ці діалекти так, як вам зручніше.

Напр.

У PRML від Bishop,

етап виводу, на якому ми використовуємо дані тренінгу для вивчення моделі p(Ск|х)

Тож здається, що тут Inference= Learning=Estimation

Але в іншому матеріалі умовивід може відрізнятися від оцінки, де inferenceозначає, predictionпоки estimationозначає процедуру вивчення параметрів.


0

У контексті машинного навчання висновок стосується акта виявлення налаштувань прихованих (прихованих) змінних за вашими спостереженнями. Це також включає визначення заднього розподілу ваших прихованих змінних. Оцінка, схоже, пов'язана з "оцінкою балів", яка полягає у визначенні параметрів вашої моделі. Приклади включають максимальну оцінку ймовірності. В очікуванні максимізації (ЕМ) на кроці Е ви робите висновок. На кроці M ви робите оцінку параметрів.

I think I hear people saying "infer the posterior distribution" more than "estimate the posterior distribution". The latter one is not used in the usual exact inference. It is used, for example, in expectation propagation or variational Bayes, where inferring an exact posterior is intractable and additional assumptions on the posterior have to be made. In this case, the inferred posterior is approximate. People may say "approximate the posterior" or "estimate the posterior".

All this is just my opinion. It is not a rule.


0

I want to add to others' answers by expanding on the "inference" part. In the context of machine learning, an interesting aspect of inference is estimating uncertainty. It's generally tricky with ML algorithms: how do you put a standard deviation on the classification label a neural net or decision tree spits out? In traditional statistics, distributional assumptions allow us to do math and figure out how to assess uncertainty in the parameters. In ML, there may be no parameters, no distributional assumptions, or neither.

There has been some progress made on these fronts, some of it very recent (more recent than the current answers). One option is, as others have mentioned, Bayesian analysis where your posterior gives you uncertainty estimates. Bootstrap type methods are nice. Stefan Wager and Susan Athey, at Stanford, have some work from the past couple years getting inference for random forests. Analagously, BART is a Bayesian tree ensemble method that yields a posterior from which inference can be drawn.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.