Гіперпараметр - це просто параметр, який повністю чи частково впливає на інші параметри. Вони не вирішують безпосередньо оптимізаційну проблему, з якою ви стикаєтесь, а скоріше оптимізуєте параметри, які можуть вирішити проблему (отже, гіпер , тому що вони не є частиною оптимізаційної задачі, а швидше є "аддонами"). Щодо того, що я бачив, але я не маю посилання, це відношення є односпрямованим (на гіперпараметр не можуть впливати параметри, на які він впливає, отже, і гіпер ). Зазвичай вони вводяться в схемах регуляризації або метаоптимізації.
Наприклад, ваш параметр може вільно впливати на μ і σ, щоб регулювати вартість регуляризації (але μ і σ не впливають на λ ). Таким чином, λ - гіперпараметр для μ і σ . Якби у вас був додатковий параметр τ, що впливає на λ , це був би гіперпараметр для λ і гіпергіперпараметр для μ і σ (але я ніколи не бачив цієї номенклатури, але я не відчував би, що було б неправильно, якби бачив її) .λμσμσλλμστλλμσ
Я вважав, що концепція гіперпараметра є дуже корисною для перехресної перевірки, оскільки вона нагадує вам про ієрархію параметрів, а також нагадує, що якщо ви все ще змінюєте (гіпер-) параметри, ви все ще перехрещуєтесь і не узагальнюєте, тому вам потрібно залишайтеся уважними щодо своїх висновків (щоб уникнути кругообігу).