Я працюю над проблемою бінарної класифікації, де набагато важливіше не мати помилкових позитивів; досить багато помилкових негативів - це нормально. Наприклад, я використовував купу класифікаторів у sklearn, але я думаю, що жоден з них не має можливості чітко регулювати компроміс з точністю нагадування (вони дають досить хороші результати, але не регулюються).
Які класифікатори мають регульовану точність / відкликання? Чи можна впливати на точність / відкликання компромісу на стандартних класифікаторах, наприклад, Random Forest або AdaBoost?