Досить важко порівняти kNN та лінійну регресію безпосередньо, оскільки вони є дуже різними речами, однак, я думаю, ключовим моментом тут є різниця між "моделюванням " та "з припущеннями про ".f( х )f( х )
Роблячи лінійну регресію, конкретно моделюється , часто щось серед рядків де - термін шуму Гаусса. Ви можете зрозуміти, що модель максимальної ймовірності еквівалентна моделі помилок мінімальної суми квадратів.f( х )f( x ) = w x + ϵϵ
KNN, з іншого боку, як підказує ваш другий пункт, передбачає, що ви могли б наблизити цю функцію локально постійною функцією - деякою мірою відстані між -зами, не конкретно моделюючи весь розподіл.х
Іншими словами, лінійна регресія часто матиме гарне уявлення про значення для деякого невидимого від просто значення , тоді як kNN знадобиться якась інша інформація (тобто k сусіди) для прогнозування , оскільки значення , а саме значення, не дасть жодної інформації, оскільки для немає моделі .f( х )ххf( х )хf( х )
EDIT: повторити це нижче, щоб повторно висловити це чіткіше (див. Коментарі)
Зрозуміло, що і лінійна регресія, і методи найближчого сусіда мають на меті передбачити значення для нового . Зараз є два підходи. Лінійна регресія продовжується, якщо припустити, що дані потрапляють на пряму (плюс мінус деякий шум), і тому значення y дорівнює значенню меншому за нахил лінії. Іншими словами, лінійний вираз моделює дані як пряму.у= f( х )хf( х )
Тепер методи найближчого сусіда не переймаються тим, як виглядають дані (не моделюють дані), тобто їм байдуже, чи це лінія, парабола, коло тощо. і будуть подібними, якщо і схожі. Зауважте, що це припущення приблизно відповідає дійсності будь-якої моделі, включаючи всі, про які я згадував вище. Однак метод NN не міг сказати, як значення пов'язане з (чи це лінія, парабола тощо), оскільки у неї немає моделі цього відношення, вона просто передбачає, що її можна наблизити по дивлячись на ближні точки.f(x1)f(x2)x1x2f(x)x