(Acest articol a fost publicat pentru prima dată pe R | Alec Stashevskyși a contribuit cu drag la R-Bloggers). (Puteți raporta problema despre conținutul de pe această pagină aici)
Doriți să vă împărtășiți conținutul pe R-Bloggers? Faceți clic aici dacă aveți un blog sau aici dacă nu.
Sunt încântat să anunț asta blocklength
0.2.0 este acum disponibil pe CRAN! blocklength
este conceput pentru a fi utilizat cu proceduri de bloc-bootstrap și face rapid și ușor să selectați o lungime de bloc cantitativ. Această actualizare semnificativă include un nou algoritm de selecție a lungimii blocului de Lahiri, Furukawa și Lee (2007), metoda „NPPI” nonparametrică.
Instalați -l cu:
install.packages("blocklength")
Cele mai importante modificări sunt evidențiate mai jos și puteți vedea o listă completă de modificări în ChangeLog.
Caracteristici noi
Noul nppi()
Funcția și metoda sa corespunzătoare de complot S3 plot.nppi()
Poate fi utilizat într -o manieră similară cu alți algoritmi deja prezenți în bibliotecă. Documentația poate fi găsită pe site -ul pachetului. Metoda NPPI aduce o flexibilitate suplimentară pentru utilizatori și extinde utilitatea pachetului la o gamă mai largă de estimatori, inclusiv prejudecăți, variație, funcție de distribuție și estimatori cuantici.
Algoritmul NPPI
Algoritmul NPPI se bazează pe fundamentele teoretice descrise pentru prima dată în hârtia seminală de Hall, Horowitz și Jing (1995) „HHJ”, care a propus primul algoritm optim de selecție a lungimii blocului pentru block-bootstrap. Lor hhj()
algoritmul a făcut parte din blocklength
De la început, dar metoda NPPI relaxează ambele presupunerile metodei HHJ și o extinde la o gamă mai largă de estimatori.
HHJ arată că pentru mulți estimatori de bloc de bloc, variația estimatorului de bootstrap este o funcție din ce în ce mai mare a lungimii blocului ( ell ) în timp ce prejudecata sa este o funcție în scădere a ( ell ). În ecuațiile (2.1) și (2.2), Lahiri, Furukawa și Lee (2007) arată că, în condiții de regularitate adecvate, estimatorii de prejudecăți și de varianță pot fi extinse astfel încât:
(n^{2a} cdot text {var} ( hat { varphi} _n ( ell)) = c_1 n^{-1} ell^r + o (n^{-1} ell ^r) quad text {as} n to infty )
(n^a cdot text {bias} ( hat { varphi} _n ( ell)) = c_2 ell^{-1} + o ( ell^{-1}) quad text { ca} n to infty )
unde (C_1 ) şi (C_2 ) sunt parametrii populației.
Constatarea cheie de la Lahiri, Furukawa și Lee (2007) este că, mai degrabă decât derivarea expresiilor analitice pentru aceste constante ale populației, putem folosi metode de eșantionare nonparametrice (adică Block-Bootstrap-ul în mișcare și blocurile în mișcare-jackknife) pentru a le estima direct. Mai mult, se arată că acești estimatori sunt consecvenți în condițiile de regularitate ale HHJ.
Punând toate acestea, NPPI are următorii trei pași:
- Calculați estimatorul de prejudecăți folosind blocajul în mișcare (MBB).
- Utilizați replicile de bootstrap (blocuri) de la (1) pentru a calcula estimatorul de varianță folosind blocurile în mișcare-jackknife (MBJ).
- Calculați estimările parametrilor populației ( hat {c_1} ) şi ( hat {c_2} ) și estimatorul final pentru lungimea blocului optim.
Pasul 1
Estimarea prejudecății se face printr -un truc foarte îngrijit. Pur și simplu calculăm bloc-botstrap-ul pentru o lungime de bloc aleasă ( ell ) Și atunci (2 ell ). Estimatorul de prejudecăți este apoi dat pur și simplu de ecuația (3.9):
( widehat { text {bias}} _ n echiv widehat { text {bias}} _ n ( ell) = 2 left ( hat { varphi} _n ( ell) – hat { varphi } _n (2 ell) dreapta).
O diagramă a estimatorului MBB ( hat { varphi} _n ) este dat în Lahiri (2003) Rezumați metode pentru datele dependente, Figura 7.1:
Pasul 2
Estimarea variației este calculată folosind metoda de blocuri în mișcare-jackknife (MBJ) a Liu și Singh (1992). Metoda MBJ este o generalizare a metodei Jackknife-After-Bootstrap din Efron (1992) la bloc-bootstrap. Metoda MBJ este o modalitate foarte inteligentă de a estima variația unui estimator de bloc-bootstrap, deoarece putem pur și simplu regruparea blocurilor eșantionate de la Pasul 1 fără a recomputa întregul bloc-bloc-etapă pentru fiecare iterație.
Pentru fiecare dintre seturile de blocuri eșantionate create din MBB, ștergem mai întâi (m ) blocuri consecutive (acest set de blocuri este denumit bloc de blocuri), reșurează restul blocurilor la întâmplare cu înlocuirea și calculează (i^{th} ) Valoarea punctului Jackknife ( hat { varphi}^{(i)} _ n ) Prin reutilizarea estimatorului MBB ( hat { varphi} _n ). Calculăm valorile punctului jab în total (M ) ori și apoi calculați estimatorul de varianță JAB în urma ecuației (3.6):
( wideHat { text {var}} _ { text {jab}} ( hat { varphi} _n) = frac {m} {(n – m)} frac {1} {m} sum_ {i = 1}^{m} left ( tilde { varphi} _n^{(i)} – hat { varphi} _n dreapta)^2 )
unde ( tilde { varphi} _n^{(i)} = m^{-1} left (n hat { varphi} _n-(n-m) hat { varphi} _n^{(i )} dreapta) ).
Lahiri (2003), o diagramă a calculului valorii punctului Jab este dată de Lahiri (2003), figura 7.2:
Pasul 3
Ultimul pas este de a calcula estimatorul NPPI al lungimii blocului optim ( hat { ell}^0 )dat de ecuația (4.15):
( hat { ell}^0 = left ( frac {2 hat {c} _2^2} {r hat {c} _1} dreapta)^{ frac {1} {r+2 }} n^{ frac {1} {r+2}} )
unde ( hat {c} _1 = n ell^{-r} widehat { text {var}} ) şi ( hat {c} _2 = widehat { text {bias}} _ n ).
Concluzie
Implementarea metodei NPPI a fost în esență un exercițiu foarte distractiv în meta-eșantionare. Folosește cele mai populare două metode de eșantionare, Bootstrap și Jackknifeca mijloc de estimare a parametrilor pentru bloc-bootstrap: el însuși un algoritm de eșantionare. Metoda NPPI este un plus excelent la blocklength
Și sper că va fi util pentru cercetători și practicieni deopotrivă!