Як ми пояснимо різницю між логістичною регресією та нейронною мережею для аудиторії, яка не має статистики?
Як ми пояснимо різницю між логістичною регресією та нейронною мережею для аудиторії, яка не має статистики?
Відповіді:
Я припускаю, що у вашому запитанні про нейронні мережі ви думаєте про те, що раніше було, і, можливо, все ще називаються "багатошаровими перцептронами". Якщо так, то я б пояснив це все з точки зору гнучкості щодо форми межі рішення як функції пояснювальних змінних. Зокрема, для цієї аудиторії я б не згадував функції зв’язків / коефіцієнти журналу тощо. Просто продовжуйте думати, що ймовірність події прогнозується на основі деяких спостережень.
Ось можлива послідовність:
Переваги такого підходу полягають у тому, що вам не потрібно дійсно вникати в будь-які математичні деталі, щоб дати правильну думку. Насправді їм не потрібно розуміти ні логістичну регресію, ні нейронні мережі, щоб зрозуміти подібність та відмінності.
Недоліком підходу є те, що вам потрібно зробити багато знімків і рішуче протистояти спокусі впасти в алгебру, щоб пояснити речі.
Для більш простого резюме:
Логістична регресія: найпростіша форма Нейронної мережі, що призводить до меж рішення, що є прямою лінією
Нейронні мережі: суперсет, який включає логістичну регресію, а також інші класифікатори, які можуть генерувати більш складні межі рішення.
(зауважте: я маю на увазі "просту" логістичну регресію без допомоги інтегральних ядер)
(довідка: курси deeplearning.ai Ендрю Нг, "Логістична регресія як нейронна мережа" та "Плоска класифікація даних з одним прихованим шаром")
Я прийму питання буквально: Хтось, хто не має статистики. І я не збираюся намагатися давати цій людині досвід у статистиці. Наприклад, припустимо, ви повинні пояснити різницю генеральному директору компанії чи щось подібне.
Отже: Логістична регресія - це інструмент для моделювання категоріальної змінної з точки зору інших змінних. Це дає вам способи з'ясувати, як зміни в кожній з "інших" змінних впливають на шанси різних результатів у першій змінній. Висновок досить легко інтерпретувати.
Нейронні мережі - це набір методів, які дозволяють комп'ютеру спробувати вчитися на прикладах способами, які невідмінно нагадують, як люди дізнаються про речі. Це може призвести до моделей, які є хорошими прогнозами, але вони, як правило, набагато непрозоріші, ніж моделі з логістичної регресії.
Мене вчили, що ви можете розглядати нейронні мережі (з функціями логістичної активації) як середньозважене значення функцій logit, з оцінкою самих ваг. Вибравши велику кількість логітів, ви можете підігнати будь-яку функціональну форму. У публікації блогу Econometric Sense є деяка графічна інтуїція .
Інші відповіді чудові. Я просто додав би декілька зображень, що показують, що ви можете вважати логістичну регресію та багатокласну логістичну регресію (aka maxent, багаточленна логістична регресія, регрес softmax, класифікатор максимальної ентропії) як особливу архітектуру нейронних мереж.
Від Себастьяна Рашка, Мічиганський державний університет, на KDnuggets :
Ще кілька ілюстрацій для багатокласової логістичної регресії:
Аналогічна ілюстрація, взята з http://www.deeplearningbook.org/ розділ 1:
І ще один із навчальних посібників TensorFlow :
Наприклад, у Caffe ви б реалізували логістичну регресію таким чином :
Я б використав приклад складної, але конкретної проблеми, яку розуміє аудиторія. Використовуйте приховані вузли, інтерпретації яких не навчені, але мають особливі значення.
Якщо ви використовуєте шахові позиції (прогнозуючи, чи виграє білий), ви можете дозволити вкладкам бути представленням дошки (ігноруйте, чи можете ви замовити або захопити пасанса, чи навіть, чий це перехід), скажімо двійкові входи, що вказують, чи є частинки кожного типу на кожному квадраті.
Лінійна регресія визначає, наскільки добре мати білого лицаря на h4. Це може бути не очевидним, що це взагалі добре, але якщо він знаходиться на h4, він не був захоплений, що, мабуть, переважає інші міркування. Лінійна регресія, ймовірно, відновлює приблизні значення шматочків, і що краще розмістити свої шматки у напрямку до центру дошки та на стороні супротивника. Лінійна регресія не в змозі оцінити комбінації, наприклад, що ваша королева на b2 раптом є більш цінною, якщо протилежний король знаходиться на a1.
Нейронна мережа могла мати приховані вузли для таких понять, як "матеріальна перевага", "безпека чорного короля", "контроль над центром", "обидва граки на d-файлі", "ізольована піша королево-грака" або "єпископ" мобільність ». Деякі з них можна оцінити лише з входів плати, а інші, можливо, повинні бути у другому або пізнішому прихованому шарі. Нейронна мережа може використовувати їх як вхід до остаточної оцінки позиції. Ці поняття допомагають експерту оцінити позицію, тому нейронна мережа повинна бути здатна до більш точних оцінок, ніж лінійна регресія. Однак для створення нейронної мережі потрібно більше роботи, оскільки вам доведеться вибирати її структуру, і вона має набагато більше параметрів для навчання.