Я розглядав напівконтрольовані методи навчання і натрапив на поняття "псевдо-маркування".
Як я розумію, при псевдомаркуванні ви маєте набір мічених даних, а також набір немаркованих даних. Ви спочатку тренуєте модель лише на маркованих даних. Потім ви використовуєте ці вихідні дані для класифікації (додавання до тимчасових міток) неозначених даних. Потім ви повертаєте як марковані, так і немарковані дані назад у навчанні вашої моделі, (повторно) пристосовуючись як до відомих міток, так і до прогнозованих міток. (Повторіть цей процес, повторно маркуючи оновлену модель.)
Заявлені переваги полягають у тому, що ви можете використовувати інформацію про структуру незазначених даних для вдосконалення моделі. Часто показана варіація наступного малюнка, що "демонструє", що процес може приймати більш складну межу рішення, виходячи з того, де лежать (без маркування) дані.
Зображення з Wikimedia Commons від Techerin CC BY-SA 3.0
Однак я не зовсім купую це спрощене пояснення. Наївно, якби початковий результат тренувань, що позначаються лише міткою, був верхньою межею рішення, псевдомарки присвоюються на основі цієї межі рішення. Що означає, що ліва рука верхньої кривої мала б білу псевдометрію, а права рука нижньої кривої - чорно-псевдопомітною. Ви не отримаєте приємну межу вирішального рішення після перенавчання, оскільки нові псевдомарки просто підсилять поточну межу прийняття рішення.
Або кажучи інакше, поточна межа міток прийняття рішень повинна мати ідеальну точність прогнозування для мічених даних (як це ми використовували для їх створення). Немає рушійної сили (немає градієнта), яка б змусила нас змінити місце розташування цієї межі рішення просто шляхом додавання в мітку даних, розмічених псевдо.
Чи правильно я вважаю, що пояснення, втілене діаграмою, бракує? Або щось мені не вистачає? Якщо немає, то є користь від псевдо-міток, враховуючи попередньо перенавчання рішення кордону має ідеальну точність по порівнянні з псевдо-лейбл?