Яка ймовірність того, що


24

Враховуючи n точок даних, кожна з яких має d функції, n/2 позначаються як 0 , інші n/2 позначаються як 1 . Кожна функція приймає значення від [0,1] випадковим чином (рівномірний розподіл). Яка ймовірність існування гіперплану, який може розділити два класи?

Розглянемо спочатку найпростіший випадок, тобто d=1 .


3
Це справді цікаве питання. Я думаю, що це може бути переформульоване з точки зору того, чи перетинаються опуклі корпуси двох класів точок чи ні - хоча я не знаю, чи це робить проблему більш простою чи ні.
Дон Уолпола

Це, очевидно, буде функцією відносних величин & . Розглянемо найпростіший випадок w / , якщо , то w / дійсно безперервні дані (тобто, не округлення до жодного десяткового знаку), ймовірність їх лінійного відокремлення дорівнює . OTOH, . d d = 1 n = 2 1 lim n Pr (лінійно відокремлюється) 0ndd=1n=21limn  Pr(linearly separable)0
gung - Відновіть Моніку

Також слід уточнити, чи потрібно гіперплану бути «плоским» (чи це могла бути, скажімо, парабола в ситуації 2d типу). Мені здається, що питання сильно передбачає рівність, але це, мабуть, слід сказати прямо.
gung - Відновити Моніку

4
@gung Я думаю, що слово "гіперплан" однозначно означає "площинність", тому я редагував заголовок, щоб сказати "лінійно відокремлюваний". Очевидно, що будь-який набір даних без дублікатів, в принципі, нелінійно відокремлюється.
амеба каже: Відновити Моніку

1
@gung IMHO "плоский гіперплан" - це плеоназм. Якщо ви стверджуєте, що «гіперплан» може бути вигнутим, то «плоский» також може бути вигнутим (у відповідній метриці).
Амеба каже: Відновити Моніку

Відповіді:


4

Якщо припустити, що в даних немає дублікатів.

Якщо , ймовірність дорівнює .nd+1Pr=1

Для інших комбінацій дивіться наступний сюжет:(n,d)

введіть тут опис зображення

Я створив цей сюжет, імітуючи вхідні та вихідні дані, як зазначено в ОП. Лінійна відокремлюваність була визначена як збій конвергенції в логістичній регресійній моделі внаслідок ефекту Хока-Доннера .

Ми можемо бачити, що ймовірність зменшується для збільшення . Насправді ми могли б підігнати модель, що стосується до , і це був результат:nn,dp

P(n,d)=11+e(5.829444.58261×n+1.37271×d0.0235785×n×d)

введіть тут опис зображення


Код сюжету (у Юлії):

using GLM

ds = 10; #number of dimensions to be investigated
ns = 100 #number of examples to be investigated
niter = 1000; #number of iterations per d per n
P = niter * ones(Int64, ds, ns); #starting the number of successes

for d in 1:ds
    for n in (d+1):ns
        p = 0 #0 hits
        for i in 1:niter
            println("Dimensions: $d; Samples: $n; Iteration: $i;")
            try #we will try to catch errors in the logistic glm, these are due to perfect separability
                X = hcat(rand((n,d)), ones(n)); #sampling from uniform plus intercept
                Y = sample(0:1, n)  #sampling a binary outcome
                glm(X, Y, Binomial(), LogitLink())
            catch
                p = p+1 #if we catch an error, increase the count
            end
        end
        P[d,n] = p
    end
end

using Plots

gui(heatmap(P./niter, xlabel = "Number of Samples", ylabel = "Number of Dimensions", title = "Probability of linear separability"))

Код для моделі, що стосується до (у Джулії):(n,d)p

probs = P./niter
N = transpose(repmat(1:ns, 1, ds))
D = repmat(1:ds, 1, ns)

fit = glm(hcat(log.(N[:]), D[:], N[:].*D[:], ones(ds*ns)), probs[:], Binomial(), LogitLink())
coef(fit)
#4-element Array{Float64,1}:
# -4.58261
#  1.37271
# -0.0235785
#  5.82944

gui(heatmap(reshape(predict(fit), ds, ns), xlabel = "Number of Samples", ylabel = "Number of Dimensions", title = "Fit of probability of linear separability"))

+1. Чому log (n), а не n? Жовто-чорна межа виглядає як пряма для мене лінія на верхній фігурі, але здається зігнутою на другій фігурі. Може, через журнал (n)? Не впевнений.
амеба каже: Відновити Моніку

@amoeba Я змінив це. Я також включив взаємодію, оскільки це могло пояснити поступове розширення межі між та (це було причиною того, що я раніше спробував логарифм). p = 0p=1p=0
Firebug
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.