Нещодавно мене познайомили з галуззю наукових даних (минуло 6 місяців), і Ii розпочав подорож з курсу машинного навчання Ендрю Нґ та посадою, яка почала працювати над спеціалізацією JHU з наукових даних.
На практичній практиці я працював над створенням прогностичної моделі, яка б передбачала погіршення. Поки я використовував glm, bayesglm, rf, прагнучи вивчити та застосувати ці методи, але я знаходжу багато розбіжностей у розумінні цих алгоритмів.
Моя основна дилема:
Чи варто мені зосереджуватися більше на вивченні тонкощів кількох алгоритмів, або я повинен використовувати підхід до знання багатьох з них як і коли, і стільки, скільки потрібно?
Підкажіть, будь ласка, у правильному напрямку, можливо, запропонувавши книги чи статті чи що-небудь, що, на вашу думку, допоможе.
Буду вдячний, якби ви відповіли ідеєю керівництва тим, хто щойно розпочав свою кар’єру в галузі наукових даних і хоче стати людиною, яка вирішує практичні питання для ділового світу.
Я прочитав би (якомога більше) ресурсів (книг, статей), запропонованих у цій публікації, і надав би особисту інформацію про плюси і мінуси, щоб зробити це корисним повідомленням для людей, які стикаються з подібним питанням в майбутньому, і я думаю, що було б чудово, якби люди, які пропонують ці книги, могли зробити те саме.