Це точно те саме, що і у випадку, коли результат становить від 0 до 1, і цей випадок, як правило, обробляється узагальненою лінійною моделлю (GLM), як логістична регресія. В Інтернеті є безліч відмінних праймерів для логістичної регресії (та інших ГЛМ), а також є відома книга на тему Агресті.
Бета-регресія - життєздатна, але більш складна альтернатива. Цілком ймовірно, що логістична регресія спрацює добре для вашої програми, і зазвичай це буде простіше реалізувати з більшістю статистичного програмного забезпечення.
Чому б не використати звичайну регресію найменших квадратів? Насправді люди це роблять, іноді під назвою "лінійна модель ймовірності" (LPM). Найбільш очевидна причина, чому ЛПМ "погані", полягає в тому, що немає простого способу обмежити результат, щоб лежати в певному діапазоні, і ви можете отримати прогнози вище 1 (або 100% або будь-якої іншої кінцевої верхньої межі) і нижче 0 (або якась інша нижня межа). З тієї ж причини прогнози біля верхньої межі мають тенденцію бути систематично зависокими, а прогнози біля нижньої межі - занадто низькими. Математична лінійна регресія явно передбачає, що такі тенденції не існують. Зазвичай, це не є вагомою причиною для пристосування LPM до логістичної регресії.
Крім того, виявляється, що всі регресійні моделі OLS, включаючи LPM, можна визначити як особливий вид GLM, і в цьому контексті LPM пов'язані з логістичною регресією.