Інтуїтивне пояснення виходу з журналу


10

У кількох змаганнях з кубків бал базувався на "логлосі". Це стосується помилки класифікації.

Ось технічна відповідь, але я шукаю інтуїтивну відповідь. Мені дуже сподобалися відповіді на це запитання про відстань махаланобіс, але PCA - це не логос.

Я можу використовувати значення, яке видає моє програмне забезпечення для класифікації, але я не дуже його розумію. Чому ми використовуємо його замість істинних / хибних позитивних / негативних показників? Чи можете ви мені допомогти, щоб я міг пояснити це своїй бабусі чи новачку на місцях?

Мені також подобається і погоджуюся з цитатою:

ти насправді щось не розумієш, якщо не зможеш пояснити це своїй бабусі
- Альберту Ейнштейну

Я спробував відповісти на це самостійно, перш ніж публікувати тут.

Посилання, які мені не здалися інтуїтивно зрозумілими чи дуже корисними, включають:

Вони інформативні та точні. Вони призначені для технічної аудиторії. Вони не малюють простої картини або не дають простих і доступних прикладів. Вони не написані для моєї бабусі.


ви не надали посилання на свою технічну відповідь
bdeonovic


@ EhsanM.Kermani - Я не знайшов таких інтуїтивно зрозумілих, як ті, що стосуються махаланобіса, на які я посилався.
EngrStudent

1
запис на сайті kaggle дає досить коротке пояснення logloss
bdeonovic

Знайдено це посилання: exegetic.biz/blog/2015/12/making-sense-logarithmic-loss . Може допомогти.
Deolu A

Відповіді:


8

Logloss - логарифм добутку всіх ймовірностей. Припустимо, Аліса передбачила:

  • з вірогідністю 0,2, Джон вб'є Джека
  • з вірогідністю 0,001, Марія вийде заміж за Івана
  • з вірогідністю 0,01, Білл - вбивця.

Виявилося, що Мері не вийшла заміж за Джона, Білл - не вбивця, але Джон убив Джека. Добуток ймовірностей, за Алісою, дорівнює 0,2 * 0,999 * 0,99 = 0,197802

Боб передбачив:

  • з вірогідністю 0,5, Джон вб'є Джека
  • з вірогідністю 0,5, Марія вийде заміж за Івана
  • з вірогідністю 0,5, Білл - вбивця.

Продукт 0,5 * 0,5 * 0,5 = 0,125.

Аліса краще прогнозує, ніж Боб.


чому працює "добуток усіх ймовірностей"? Це звучить як відносне максимізація очікування.
EngrStudent

3
Вам потрібен офіційний доказ? Саме у "технічній відповіді", згаданій тематичним стартером. Вам потрібна неформальна «бабусина» причина, чому? Ви кажете: припустимо, цей хлопець дав правильні прогнози. Яка ймовірність того, що все станеться так, як це було насправді? Це добуток ймовірностей.
користувач31264

"продукт ймовірностей" не є "бабусею". log продукту ймовірностей - це сума log-ймовірностей, яку вони використовують у максимізації очікування та називають "очікуванням". Я думаю, що це також закодовано в дивергенції KL. ... Я думаю, що у бабусі-розмові можна сказати "" найімовірніше "= найвища загальна ймовірність декількох подій. Є два" найвищі ": 1) максимізувати комбіновану ймовірність або 2) мінімізувати негативну комбіновану ймовірність. Більшість машин Навчання подобається "градієнтному спуску" або мінімізації шкідливості. Втрата журналу - це негативна ймовірність, масштабована за розміром вибірки, і вона зменшується.
EngrStudent

Тут посилання кажуть, що "exp (-loss) - це середня ймовірність правильного прогнозування".
EngrStudent

Я любив єпископ реф тут . Це рівняння 4.108 і є функцією помилки крос-ентропії.
EngrStudent
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.