Автокореляція Python vs Julia


19

Я намагаюся зробити автокореляцію за допомогою Джулії та порівняти її з результатом Python. Як вони дають різні результати?

Код Джулії

using StatsBase

t = range(0, stop=10, length=10)
test_data = sin.(exp.(t.^2))

acf = StatsBase.autocor(test_data)

дає

10-element Array{Float64,1}:
  1.0                   
  0.13254954979179642   
 -0.2030283419321465    
  0.00029587850872956104
 -0.06629381497277881   
  0.031309038331589614  
 -0.16633393452504994   
 -0.08482388975165675   
  0.0006905628640697538 
 -0.1443650483145533

Код Python

from statsmodels.tsa.stattools import acf
import numpy as np

t = np.linspace(0,10,10)
test_data = np.sin(np.exp(t**2))

acf_result = acf(test_data)

дає

array([ 1.        ,  0.14589844, -0.10412699,  0.07817509, -0.12916543,
       -0.03469143, -0.129255  , -0.15982435, -0.02067688, -0.14633346])

1
Роздрукуйте дані тесту в обох випадках
Mad Physicist

Відповіді:


26

Це тому, що ваш test_dataінший:

Пітон:

array([ 0.84147098, -0.29102733,  0.96323736,  0.75441021, -0.37291918,
        0.85600145,  0.89676529, -0.34006519, -0.75811102, -0.99910501])

Юлія:

[0.8414709848078965, -0.2910273263243299, 0.963237364649543, 0.7544102058854344,
 -0.3729191776326039, 0.8560014512776061, 0.9841238290665676, 0.1665709194875013,
 -0.7581110212957692, -0.9991050130774393]

Це відбувається тому, що ви приймаєте sinвеличезну кількість. Наприклад, коли останнє число tстановить 10, exp(10^2)дорівнює ~ 2,7 * 10 ^ 43. У цій шкалі неточності з плаваючою комою становлять приблизно 3 * 10 ^ 9. Отже, якщо навіть найменш значущий біт відрізняється для Python та Julia, sinзначення буде відхилено.

Насправді ми можемо перевірити основні бінарні значення початкового масиву t. Наприклад, вони відрізняються третім останнім значенням:

Юлія:

julia> reinterpret(Int, range(0, stop=10, length=10)[end-2])
4620443017702830535

Пітон:

>>> import struct
>>> s = struct.pack('>d', np.linspace(0,10,10)[-3])
>>> struct.unpack('>q', s)[0]
4620443017702830536

Ми дійсно можемо бачити, що вони не погоджуються саме на одному епсилоні машини. І якщо ми будемо використовувати Julia взяти sinзначення, отримане Python:

julia> sin(exp(reinterpret(Float64, 4620443017702830536)^2))
-0.3400651855865199

Ми отримуємо те саме значення, що і Python.


9

Просто, щоб трохи розширити відповідь (додавши як відповідь, оскільки це занадто довго для коментаря). У Джулії у вас є:

julia> t = collect(range(0, stop=10, length=10))
10-element Array{Float64,1}:
  0.0               
  1.1111111111111112
  2.2222222222222223
  3.3333333333333335
  4.444444444444445 
  5.555555555555555 
  6.666666666666667 
  7.777777777777778 
  8.88888888888889  
 10.0               

julia> t .- [10*i / 9 for i in 0:9]
10-element Array{Float64,1}:
 0.0
 0.0
 0.0
 0.0
 0.0
 0.0
 0.0
 0.0
 0.0
 0.0

перебуваючи в Python:

>>> t = np.linspace(0,10,10)
>>> t - [10*i/9 for i in range(10)]
array([0.0000000e+00, 0.0000000e+00, 0.0000000e+00, 0.0000000e+00,
       0.0000000e+00, 0.0000000e+00, 0.0000000e+00, 8.8817842e-16,
       0.0000000e+00, 0.0000000e+00])

і ви бачите, що 8-е число в Python є неточним наближенням 70/9, тоді як у Джулії в цьому випадку ви отримуєте послідовність найближчих наближень 10*i/9використання Float64.

Тож здавалося б, що оскільки оригінальні послідовності відрізняються від вас, все інше випливає з того, що прокоментував @Jakob Nissen.

Однак все не так просто. Оскільки expфункції у Julia та Python дещо відрізняються тим, що вони виробляють. Дивіться Python:

>>> from math import exp
>>> from mpmath import mp
>>> mp.dps = 1000
>>> float(mp.exp((20/3)**2) - exp((20/3)**2))
-1957.096392544307

перебуваючи в Джулії:

julia> setprecision(1000)
1000

julia> Float64(exp(big((20/3)^2)) - exp((20/3)^2))
2138.903607455693

julia> Float64(exp(big((20/3)^2)) - nextfloat(exp((20/3)^2)))
-1957.096392544307

(ви можете перевірити, що (20/3)^2однаково Float64і в Julia, і в Python).

Тож у цьому випадку з expPython дещо точніше, ніж Юлія. Тому навіть фіксація t(що легко за допомогою розуміння в Python замість linspace) не зробить ACF рівним.

Загалом висновок - це те, що @Jakob Nissen прокоментував такі великі значення, на результати будуть сильно впливати числові неточності.

Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.