Чому логістичну регресію називають алгоритмом машинного навчання?


19

Якщо я правильно зрозумів, в алгоритмі машинного навчання модель має вчитися на своєму досвіді, тобто коли модель дає неправильний прогноз для нових випадків, вона повинна адаптуватися до нових спостережень, і з часом модель стає все кращою . Я не бачу, щоб логістична регресія мала цю характеристику. То чому це все ще розглядається як алгоритм машинного навчання? Чим відрізняється логістична регресія від нормальної регресії в терміні "навчання"?

У мене те саме питання щодо випадкових лісів!

А яке визначення "машинне навчання"?


4
Я відредагував ваше питання на предмет граматичної ясності, але не впевнений, що ви маєте на увазі загалом ... Логістична регресія підпадає під ML, оскільки це алгоритм класифікації. Машинне навчання не означає, що алгоритм повинен бути адаптивним (хоча є й алгоритми, які навчаються за новими спостереженнями). Адаптація - це скоріше вибір реалізації, який зазвичай досягається генеративними алгоритмами машинного навчання, які моделюють спільну ймовірність.
Жубарб

12
«Машинне навчання» - це досить вільно визначене поняття. Дійсно, всі статистичні процедури, що передбачають підгонку моделі, можна думати про машинне навчання. (Якщо припустити, що встановлення моделі певною мірою може бути виконано комп'ютером!). Ось чому деякі статистики засмучуються "великими даними", "машинним навчанням" і т. Д. Спільнотами, що каламутять води про те, що таке статистика (а ні!)
P.Windridge,


1
@ P.Windridge: якщо "всі статистичні процедури, що передбачають підгонку моделі, можна думати про машинне навчання", тож я не розумію, чому слід розрізняти машинне навчання та статистику
Менаріат

4
@XuanQuangDO Напевно, ми не повинні відрізняти машинне навчання та статистику.
Sycorax повідомляє про відновлення Моніки

Відповіді:


21

Машинне навчання - не чітко визначений термін.

Насправді, якщо ви "Визначення машинного навчання" від Google, перші дві речі ви отримаєте зовсім інші.

З WhatIs.com ,

Машинне навчання - це тип штучного інтелекту (AI), який надає комп’ютерам можливість навчатися, не будучи явно запрограмованими. Машинне навчання фокусується на розробці комп’ютерних програм, які можуть навчити себе рости та змінюватися при впливі нових даних.

З Вікіпедії ,

Машинне навчання вивчає побудову та вивчення алгоритмів, за якими можна вчитися та робити прогнози на даних.

Логістична регресія, безсумнівно, відповідає визначенню Вікіпедії, і ви можете заперечити, чи відповідає вона визначенню WhatIs.

Я особисто визначаю машинне навчання так само, як це робить Вікіпедія, і вважаю це набором статистичних даних.


1
Я згоден з більшістю сказаного, за винятком того, що це підмножина статистики. Він має велике збіг, але є такі види навчання, як навчальне підкріплення, яке насправді не можна вважати підмножиною статистики.
Джордж

2
Це не гарні джерела.
Ніл Г

@George Правильно, але давайте поглянемо на це, якщо вам довелося застосувати етикетку до всіх методологій збору, аналізу та моделювання даних, будь то машинне навчання, контрольоване чи непідконтрольне, параметричне чи непараметричне, все це статистика. ML - спеціалізована галузь зі статистики.
RobertF

@RobertF Я не згоден. Машинне навчання - це поле, яке вивчає, як машини можуть вчитися. Я погоджуюсь, що більшість методів, що використовуються в ML, можна вважати статистичними методами, але це поле не є по суті підполем статистики. Наприклад, я не вважаю, що процеси прийняття рішень Маркова вважаються статистичними методами.
Джордж

1
@George Дискретний час Маркові моделі - це ймовірнісні моделі. Після того, як ви оціните невідомі параметри моделі ймовірностей (наприклад, процеси прийняття рішення Маркова), це визначення в підручнику статистичної процедури. Я думаю, що основним класом діяльності, який можна назвати ML, а не статистикою, є конкретні програми, наприклад побудова робота, який грає в шахи. Основні алгоритми, безсумнівно, включатимуть ймовірність та статистику, але додаток насправді не є "статистикою". На кшталт того, як дослідження геноміки активно використовують статистику, але вони, безумовно, різні сфери.
ахфосс

20

Машинне навчання гаряче і там гроші. Люди називають речі, які намагаються продати все, що зараз є гарячим, і тому "продається". Це може бути продаж програмного забезпечення. Це може продавати себе як нинішніх співробітників, які намагаються отримати підвищення кваліфікації, як потенційних співробітників, як консультантів тощо. Це може бути менеджер, який намагається отримати бюджет, затверджений від компанії bigwig, щоб найняти людей і придбати речі, або переконати інвесторів інвестувати в його гарячий новий запуск, який робить машинне навчання ключовим фактором для вдосконалення програми для секстингу. Таким чином, програмне забезпечення займається машинним навчанням, і люди - це фахівці з машинного навчання, адже це те, що є гарячим, а отже, і продається ... принаймні поки що.

Я робив всі види лінійної та нелінійної статистичної моделі, що відповідає більше 30 років тому. Тоді це не називалося машинним навчанням. Зараз більшість це було б.

Так само, як усі та їх дядько, тепер Дані "Вчений". Це жарко, це нібито сексуально, тож саме так люди називають себе. І це те, що наймають менеджерів, які мають отримати бюджет, щоб найняти когось, як список. Тож той, хто не знає найперше про математику, ймовірність, статистику, оптимізацію чи обчислення чисельних / плаваючих точок, використовує пакет R або Python із сумнівною правильністю та надійністю реалізації, який позначений як алгоритм машинного навчання, звертатися до даних, які вони не розуміють, і називати себе науковцем даних, виходячи з їх досвіду в цьому.

Це може здатися легковажним, але я вважаю, що це суть ситуації.

Редагувати: 26 вересня 2019 року було написано наступне повідомлення:

https://twitter.com/daniela_witten/status/1177294449702928384

Даніела Віттен @daniela_witten "Коли ми збираємо гроші, це AI, коли ми наймаємо це машинне навчання, а коли ми виконуємо роботу, це логістичний регрес".

(Я не впевнений, хто придумав це, але це дорогоцінний камінь 💎)


16
Я не приховую, що я поділяю деякі з цих думок і співчуваю решті. Однак, щоб вони були відповідними як відповідь на сайті SE, вони повинні мати якусь підтримку. Очевидно, що це не буде через дедуктивне міркування: воно повинно виходити з приведення фактів та / або цитування авторитетних джерел. Було б здорово, якби ви могли це зробити!
whuber

10
Легко найцікавіший пост, який я сьогодні читав на цьому сайті, і я погоджуюся з великою частиною цього. Але я повинен погодитися з @whuber, що він не відповідає на питання в його теперішній формі.
Нік Кокс

6
Як невелике уточнення. Я працюю як в розробці програмного забезпечення, так і в зловмисній "Science Science". Я інтерв'юю багато людей. Частота співбесіди на посадах з розробки програмного забезпечення та позицій з інформатики, які не мають навичок виконувати цю роботу, приблизно однакова. Отже, що особливого у назві науки про дані? Люди збираються надути свої навички у всіх технічних дисциплінах. Я впевнений, що у програмі обміну стеками є багато однакових скарг.
Меттью Друрі

7
Це більше схоже на зухвалість, ніж на відповідь. Звичайно, змінюються імена, важливий бренд, а машинне навчання гаряче (а значить, багато самопроголошених практиків, які не знають, що роблять). Однак використання цього в якості аргументу применшити сферу, яка стала усталеною та дуже актуальною як у наукових дослідженнях, так і в галузі, мені здається дешевою.
Marc Claesen

7
@ MarkL.Stone Я розумію вашу ситуацію, і я повністю погоджуюся, що тут є багато некомпетентних гарячих термінів . Однак, на мою думку, в тому, що такі люди знаходять (і зберігають!) Роботу - це вина керівництва. Якщо менеджери незадоволені результатами аналітиків і ставляться до всіх аналітиків однаково, незалежно від індивідуальних навичок / результатів, то керівництво настільки ж некомпетентне, як і погані аналітики. Будь-яка робота, яка має запах готівки, має хитання, візьміть, наприклад, ліки. Підсумкові узагальнення даних про науковців / хлопців з машинного навчання так само погано, як і недовіра до всіх аналітиків.
Marc Claesen

18

Як уже згадували інші, між статистикою, машинним навчанням, штучним інтелектом тощо немає чіткого поділу, тому будь-яке визначення беремо із зерна солі. Логістична регресія, ймовірно, частіше позначається як статистика, а не машинне навчання, тоді як нейронні мережі зазвичай позначаються як машинне навчання (навіть незважаючи на те, що нейронні мережі часто є лише сукупністю моделей логістичної регресії).

На мою думку, машинне навчання вивчає методи, які можна якимось чином засвоїти з даних, як правило, будуючи модель в якійсь формі або формі. Логістична регресія, як SVM, нейронні мережі, випадкові ліси та багато інших методик, вчиться на основі даних при побудові моделі.

Якщо я правильно зрозумів, в алгоритмі машинного навчання модель має засвоїти свій досвід

Це не так, як зазвичай визначається машинне навчання. Не всі методи машинного навчання дають моделі, які динамічно адаптуються до нових даних (це підполе називається онлайн-навчання ).

Чим відрізняється логістична регресія від нормальної регресії в терміні "навчання"?

Багато методів регресії також класифікуються як машинне навчання (наприклад, SVM).


2
Зауважте, що навчання без нагляду все ще називається (машинним) навчанням, тому вам не обов'язково мати певний зворотній зв'язок, щоб класифікувати щось як "машинне навчання".
vsz

Це не є темою для запитання, але ця відповідь також згадує про розділення між AI та ML. Мені завжди подобалося таке визначення AI: en.wikipedia.org/wiki/…
Девіс Йосіда,

10

Логістичний регрес був винайдений статистиком Д. Р. Коксом у 1958 році і так передує галузі машинного навчання. Логістична регресія - це не метод класифікації, слава богу. Це модель прямої ймовірності.

Якщо ви вважаєте, що алгоритм повинен мати дві фази (початкова здогадка, то «виправити» прогнози «помилки»), врахуйте це: Логістична регресія отримує це правильно з першого разу. Тобто, у просторі аддитивних (у логіті) моделей. Логістична регресія є прямим конкурентом багатьох методів машинного навчання та перевершує багато з них, коли передбачувачі в основному діють адитивно (або коли знання предмета правильно попередньо визначають взаємодії). Деякі називають логістичну регресію типом машинного навчання, але більшість не хоче. Можна назвати деякі методи машинного навчання (нейронні мережі - приклади) статистичних моделей.


1
Смішно служба машинного навчання Amazon використовує лише один алгоритм (afaik) - логістичний регрес - для класифікаційних завдань: p aws.amazon.com/machine-learning/faqs
stmax

Ви можете просто представити дані поступово - як у онлайн-проблемі з навчанням . У такому випадку логістична регресія не «виправиться з першого разу». Я прогресивно вчиться. Він має стандартні втрати, а його оновлення - це стандартне застосування градієнтного спуску. Логістична регресія є у кожній машинній навчальній книжці, яку я бачив.
Ніл Г

1
β

@FrankHarrell: Правильно, саме так триває максимальна ймовірність оцінки проблеми логістичної регресії.
Ніл Г

Логістична регресія може передувати терміну "машинне навчання", але це не передувало цій галузі : SNARC був розроблений в 1951 році і був машиною навчання . Крім того, наполягання на тому, що логістична регресія моделює лише ймовірності, а сама по собі не є класифікатором, - це розщеплення волосся. За цією логікою нейронна мережа не є класифікатором (якщо тільки вихідний шар не складається з бінарних нейронів, але це зробить неможливим зворотне поширення).
Ігор Ф.

8

Мені доведеться не погодитися з більшістю відповідей тут і стверджувати, що Машинне навчаннямає дуже точний обсяг та чітке відмінність від статистики. ML - це підполі інформатики з багаторічною історією, яка лише в останні роки знайшла застосування поза її доменом. Офіційний домен ML та області застосування лежить в межах Штучного інтелекту (робототехніка, програмне забезпечення для розпізнавання образів тощо), тому це не просто "гарячий термін", як "Big Data" або "Data Science". З іншого боку, статистика (яка походить від слова "держава") розроблялася в рамках соціальних та економічних наук як інструмент для людини, а не машини. МЛ розвинувся окремо від статистики і, хоча десь по дорозі почав сильно покладатися на статистичні принципи, це аж ніяк не підполе статистики. ML та статистика є додатковими, а не перекриваються полями.

Довга відповідь :

Як випливає з назви, методи ML були виготовлені для програмного забезпечення / машин, а статистичні методи для людей. І МЛ, і статистика мають справу з прогнозами даних, однак методи МЛ дотримуються непараметричного автоматизованого підходу, тоді як статистичні методи вимагають великої роботи з побудови моделей вручну з додатковим пояснювальним фактором. Це має сенс, якщо ви вважаєте, що алгоритми ML були розроблені в дослідженні AI як засіб автоматизованого прогнозування, який повинен був бути інтегрований в програмне забезпечення робототехніки (наприклад, для розпізнавання голосу та обличчя). Коли "машина" робить передбачення, це не хвилює причин, що стоять за нею. Машині не важливо знати драйверів / провісників, що стоять за моделлю, яка класифікує електронну пошту як спам або не-спам, вона лише прагне мати найкращу точність прогнозування.чорні скриньки , це не тому, що у них немає моделі, це тому, що модель побудована алгоритмічно і не призначена бути видимою ні людині, ні машині.

Поняття "навчання" в МЛ спирається на обчислювальну потужність, тоді як побудова статистичної моделі з методами OLS-типу для оцінки параметрів покладається на знання людського експерта. У сценарії з декількома регресіями статистик суворо повинен використовувати своє експертне судження, щоб вибрати свою модель та перевірити всі необхідні статистичні припущення. Мета статистики - не просто знайти шаблони та використовувати їх для прогнозування, а й зрозуміти його дані та його проблему набагато більшою глибиною, ніж ML.

Звичайно, в деяких випадках ML та статистика перетинаються, як це відбувається у багатьох дисциплінах. Логістичний регрес - один із таких випадків; спочатку статистичний метод, який настільки схожий на простий Персептрон (одна з найбільш фундаментальних методик МЛ), що деякими його сприймають як метод МЛ.


1
Можливо, ви ніколи не чули про непараметричну статистику та непараметричні статистичні моделі та побудову моделей?
Марк Л. Стоун

1
Так, я використовую непараметричну статистику щодня. Я не казав, що ML - це непараметрична відповідь на статистику, я просто вважаю, що методи МЛ, які є непараметричними, є побічним ефектом. Непараметрична статистика - це альтернативний варіант статистики, коли параметрична статистика виходить з ладу, але це все-таки результат свідомого вибору експерта. Я, мабуть, недостатньо чітко висловлюю свою точку зору, і за це вибачаюся.
Дігіо

3
Є багато статистиків, які весь час роблять непараметричні моделі, статистику. Чи чули ви про емпіричну ймовірність - винайдена статистиком, використовувана статистиками, і зовсім непараметрична, хоча вона також може використовуватися в напівпараметричний спосіб. Тож я не згоден з вами, але я не порушував вас.
Марк Л. Стоун

1
Не погоджуючись, це нормально, але я все ще не зовсім розумію, про що йдеться у вашому протилежному аргументі. Ви маєте на увазі, що непараметрична статистика не потребує машинного навчання (чого я ніколи не заперечував)? Або ти стверджуєш, що машинне навчання насправді є лише іншою назвою непараметричної статистики (щось я заперечував)?
Дігіо

3
Тут багато з чим не погоджуватися. Багатоваріантні регресійні моделі при використанні спільно із сучасними статистичними інструментами можуть бути гнучкими та сильно конкурувати з ML.
Френк Харрелл

3

Машинне навчання досить чітко визначене, і ви правильно вважаєте, що регресійні моделі - а не лише логістичні регресії - також "навчаються" на даних. Я не дуже впевнений, чи означає це машинне навчання справді статистикою, чи статистика справді машинне навчання - або якщо щось із цього має значення взагалі.

к

Однак, деякі алгоритми вчаться з помилок прогнозування - це особливо часто в навчанні підкріплення , коли агент вживає певних дій, спостерігає за його результатами, а потім використовує результат для планування майбутніх дій. Наприклад, робот-вакуум може починатися з моделі світу, де він однаково часто очищає всі місця, а потім навчиться пилососити брудні місця (де «винагороджується», знайшовши бруд) більше, а місця менше чистять.

Інтернет- або додаткові алгоритми можуть неодноразово оновлюватися новими навчальними даними. Це не обов'язково залежить від точності прогнозування моделі, але я міг би уявити алгоритм, де ваги оновлюються більш агресивно, якщо, наприклад, нові дані здаються дуже малоймовірними з огляду на поточну модель. Існують онлайн-версії для логістичної регресії: наприклад, McMahan і Streeeter (2012) .


3

Нарешті я зрозумів це. Зараз я знаю різницю між підходом до статистичної моделі та машинним навчанням.

  • Якщо ви підходите до моделі (регресії), це підходить статистична модель
  • Якщо ви вивчаєте модель (регресію), це машинне навчання

Тож якщо ви вивчите логістичну регресію, це алгоритм машинного навчання.

Коментар: Вибачте мене за те, що я старий мотоцикл, але щоразу, коли я чую, як люди говорять про те, щоб вивчити модель чи навчитися регресії, це змушує задуматися про Джетро: "Я зробив, навчився мені освіти".

Кінець нитки


??? Я також можу вивчити логістичну модель, про що ти говориш?
SmallChess

1
@ Студент T, якщо ви підходите до логістичної моделі, то це відповідність статистичної моделі. Якщо ви вивчите логістичну модель, це машинне навчання. Тобто, це справді питання термінології, яка використовується в різних областях. Те саме можна назвати різними речами в різних галузях (Статистика та машинне навчання).
Марк Л. Стоун

0

Логістична регресія (і в цілому GLM) НЕ належить до машинного навчання! Вірніше, ці методи належать до параметричного моделювання.

Як параметрична, так і алгоритмічна (ML) моделі використовують дані, але різними способами. Алгоритмічні моделі дізнаються з даних, як прогнозувачі відображаються на передбачення, але вони не роблять жодного припущення щодо процесу, який породжував спостереження (ані будь-якого іншого припущення, власне). Вони вважають, що основні зв'язки між змінними вводу та виходу є складними та невідомими, і, таким чином, застосовують підхід, керований даними, щоб зрозуміти, що відбувається, а не нав'язувати формальне рівняння.

З іншого боку, параметричні моделі призначаються апріорі на основі певних знань про досліджуваний процес, використовують дані для оцінки їх параметрів і роблять безліч нереальних припущень, які рідко дотримуються на практиці (наприклад, незалежність, рівна дисперсія та Нормальний розподіл помилок).

Також параметричні моделі (як логістична регресія) є глобальними моделями. Вони не можуть зафіксувати локальні шаблони в даних (на відміну від методів ML, які використовують дерева як основні моделі, наприклад, RF або Boosted Trees). Дивіться цю паперову сторінку 5. В якості стратегії реабілітації, місцева (тобто непараметричної) GLM можна використовувати (дивіться, наприклад , в locfit R пакет).

Часто, коли мало відомо про основне явище, краще застосувати підхід, керований даними, та використовувати алгоритмічне моделювання. Наприклад, якщо ви використовуєте логістичну регресію у випадку, коли взаємодія між вхідними та вихідними змінними не є лінійною, ваша модель буде явно неадекватною і багато сигналу не буде захоплено. Однак, коли процес добре зрозумілий, параметричні моделі мають перевагу в наданні формального рівняння для узагальнення всього, що є потужним з теоретичної точки зору.

Для більш детального обговорення прочитайте цей чудовий документ Лео Бреймана.


4
Будь ласка, знайдіть час, щоб зрозуміти логістичну регресію. Він не має жодних припущень щодо розподілу. Це робить саме той самий припущення про незалежність, яке зробив ML. ML вимагає значно більших розмірів вибірки, ніж логістична регресія. Наприклад, випадкові ліси та SVM можуть вимагати стабільності 200 подій на кандидата, тоді як для логістичної регресії зазвичай потрібно 200 подій на змінну кандидата.
Френк Харрелл

2
Ви повинні витратити час, щоб зрозуміти логістичну регресію! Це узагальнена лінійна модель, де посиланням є функція logit. Він параметричний. Він передбачає, що спостереження є IID. Також удачі у захопленні нелінійних відносин. Також, що означає друга частина вашого речення? Для мене особливістю є змінна (?)
Антуан

5
Хороших книг на цю тему багато, і я рекомендую вам проконсультуватися з ними, перш ніж продовжувати. Логістична регресія не передбачає однакових розподілів і фактично не передбачає взагалі ніякого розподілу. Якщо ви не можете продемонструвати, як ви враховуєте структуру кореляції в ML, обидва підходи набувають незалежності. Регресійні сплайни використовуються з 1982 року для послаблення припущень щодо лінійності при логістичній регресії. Для цього обговорення функція = змінна, якщо не розширена в сплайн.
Френк Харрелл

5
Брейман досить добре розумів речі. Він просто не займався розвитком логістичної регресії після 1982 року, наприклад, пеніалізованою максимальною оцінкою ймовірності, регресійними сплайнами та комбінаціями з методами зменшення даних. Єдиним серйозним обмеженням логістичної регресії є те, що, як і інші методи, не добре знаходити правильні взаємодії, якщо шукати взаємодії, і вони не визначені заздалегідь. Більшість методів, які мають намір це зробити, не призводять до повторних висновків. Також Брейман використав неправильну оцінку точності, яку можна оптимізувати за допомогою хибної моделі.
Френк Харрелл

3
@Antoine: "чому логістична регресія докорінно відрізняється від ML". Зауважте, що деякі методи в ML (найбільш помітно, SVM) дуже пов'язані з логістичною регресією. За винятком декількох взаємодій - як Frank Frank - логістичний регістр з нелінійностями та пеналізацією дають дуже подібні результати, як SVM та інші методи ML. Мене продовжує дивувати, як деякі статті цитують поліпшення продуктивності, заснованого на методі ML, порівняно зі статистичною логістичною моделлю stat101, щоб негативно обрамувати логістичну регресію.
Томас Шпідель

-1

Я думаю, що інші відповіді добре справляються з визначенням більш-менш того, що таке машинне навчання (як вони зазначають, це може бути нечіткою справою). Додам, що логістична регресія (і її більш загальна багаточленна версія) дуже часто використовується як засіб класифікації в штучних нейронних мережах (які, на мою думку, однозначно охоплені будь-яким розумним визначенням машинного навчання, яке ви виберете), і так, якщо ви згадаєте Логістична регресія до нейронної мережі, вони, ймовірно, негайно подумають про це в цьому контексті. Зв’язання з важким нападником у машинному навчанні - це хороший спосіб самостійно стати технікою машинного навчання, і я певною мірою думаю, що саме це сталося з різними методами регресії, хоча я не відкинув би їх від належної техніки машинного навчання. в собі і в собі.


Зауважимо, що логістична регресія - це не класифікатор, а прямий метод оцінки ймовірності.
Френк Харрелл

Для отримання додаткової інформації про пункт доктора Харрелла, будь ласка, дивіться тут мій пост. stats.stackexchange.com/questions/127042/…
Sycorax повідомляє про відновлення Моніки

@FrankHarrell Ми також можемо використовувати ймовірність для класифікації, тому це дійсно класифікатор.
SmallChess

@ StudentT4 Це не могло бути невірніше. Якщо це прямий оцінка ймовірності. Як ви використовуєте кінцевий результат логістичної моделі, залежить від вас. За вашою логікою середній зразок є класифікатором.
Френк Харрелл

-1

Я думаю, що будь-яка процедура, яка є "ітеративною", може вважатися випадком машинного навчання. Регресію можна вважати машинним навчанням. Ми могли б зробити це вручну, але це займе багато часу, якщо це взагалі можливо. Отже, тепер у нас є ці програми, машини, які роблять для нас ітерації. Це все ближче і ближче до рішення, або до найкращого рішення чи найкращого підходу. Таким чином, «машинне навчання». Звичайно, такі речі, як нейронні мережі, приділяють найбільшу увагу у зв'язку з машинним навчанням, тому ми зазвичай пов'язуємо машинне навчання з цими сексуальними процедурами. Також тут актуальна різниця між "контрольованим" та "непідконтрольним" машинному навчанню


-2

Це дуже поширена помилка, яку робить більшість людей, і я також бачу її тут (робиться майже всіма). Поясню це докладно ... Логістична регресія та лінійна модель регресії - це параметрична модель, а також техніка машинного навчання. Це просто залежить від методу, який ви використовуєте для оцінки параметрів моделі (тети). Існує 2 способи пошуку параметрів моделі в лінійній регресії та логістичній області.

  1. Техніка градієнтного спуску : тут ми починаємо з присвоєння параметрам випадкових значень і знаходимо функцію витрат (помилка). У кожній ітерації ми оновлюємо наші параметри та мінімізуємо функціонування витрат. Після певної кількості ітерацій, функції витрат, зменшені до бажаних значень, і відповідні значення параметрів - це наші кінцеві значення. Це те, що повинно робити технічне машинне навчання. Отже, якщо ви використовуєте техніку Gradient Descent, логістична регресія може називатися технікою машинного навчання.

  2. Використовуючи метод "Найменший квадрат": Тут ми маємо пряму формулу для пошуку наших параметрів (для розуміння виведення цієї формули потрібна деяка матрична алгебра), яка відома як нормальне рівняння. Метод найменшої площі

Тут b представляє параметри X - це матриця проектування. Обидва методи мають свої переваги та обмеження. Щоб отримати детальнішу інформацію: слідкуйте за курсом машинного навчання, який все ще працює.

Сподіваюся, цей пост може бути корисним .. :-)

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.