«Слабкий» учень (класифікатор, прогноктор тощо) - це лише той, хто працює порівняно погано - його точність вище шансів, але ледве. Часто, але не завжди, додається, що це обчислювально просто. Слабкий учень також припускає, що багато примірників алгоритму об'єднуються (за допомогою прискорення, розфасування тощо), щоб створити "сильний" класифікатор ансамблю.
Він згадується в оригінальній статті AdaBoost від Freund & Schapire:
Мабуть, найдивовижнішим з цих застосувань є виведення нового додатку для "прискорення", тобто перетворення "слабкого" алгоритму навчання PAC, який працює трохи краще, ніж випадкове відгадування, в одне з довільно високою точністю. - (Freund & Schapire, 1995)
але я думаю, що ця фраза насправді старша за це - я бачив, як люди цитують курсовий документ (?!) Майкла Кірнса з 1980-х.
Класичний приклад слабкого учня - це Ступінь рішень, однорівневе дерево рішень (1R або OneR - це інший широко використовуваний слабкий учень; він досить схожий). Було б дещо дивно називати СВМ «слабким учнем», навіть у ситуаціях, коли він погано працює, але було б цілком розумно називати один пень слабким учнем, навіть коли він сам себе дивно виконує.
Adaboost - це ітеративний алгоритм, і
зазвичай позначає кількість ітерацій або "раундів". Алгоритм починається з навчання / тестування слабкого учня на даних, зважуючи кожен приклад однаково. Приклади, які неправильно класифікуються, збільшують їх вагу для наступного раунду, тоді як ті, що правильно класифіковані, отримують їх вагу зменшується.
Т
Я не впевнений, що в є щось магічне . У документі 1995 року T подається як вільний параметр (тобто ви його встановлюєте самі).Т= 10Т