Consecințele autocorelației

1. Autocorelația adevărată nu duce la o deplasare a estimărilor de regresie, dar estimările încetează să mai fie eficiente.

2. Autocorelația (în special pozitivă) duce adesea la o reducere a coeficienților de eroare standard, ceea ce implică o creștere a statisticilor t.







3. O estimare a variației reziduurilor Se 2 este o estimare părtinitoare a valorii reale a σe 2. În multe cazuri, este subestimată.

4. Având în vedere cele de mai sus, concluziile privind evaluarea calității coeficienților și a modelului în ansamblu ar putea să nu fie corecte. Aceasta duce la o deteriorare a calităților predictive ale modelului.

16. Criteriul pentru diagnosticarea autocorelației Durbin-Watson

Cel mai cunoscut criteriu pentru detectarea autocorelației de ordinul întâi este criteriul Durbin-Watson. Statisticile DW Dorbin-Watson (sau d-statisticile) sunt date în toate programele de calculator aplicate ca fiind cea mai importantă caracteristică a calității modelului de regresie. Esența criteriului este că, pe baza statisticilor calculate de DW Dorbin-Watson, se concluzionează că există o autocorelare.

Luați în considerare ecuația de regresie a formei:

unde k este numărul variabilelor independente ale modelului de regresie.

Pentru fiecare timp t = 1. Valoarea n este determinată de formula:

Studiind secvența de reziduuri ca o serie de timp în disciplina "Econometrie", se poate construi un grafic al dependenței lor de timp. În conformitate cu ipotezele metodei celor mai mici pătrate, restul trebuie să fie aleatoriu (a). Cu toate acestea, atunci când se modelează serii de timp, apare uneori o situație în care reziduurile conțin o tendință (b și c) sau fluctuații ciclice (d). Aceasta indică faptul că fiecare valoare ulterioară a reziduurilor depinde de cele anterioare. În acest caz, există o autocorelare a reziduurilor.

Consecințele autocorelației

Metode de determinare a autocorelației reziduurilor

Prima metodă este construirea unui grafic al dependențelor reziduurilor în timp și o determinare vizuală a prezenței autocorelației reziduurilor.

A doua metodă este calculul criteriului Durbin-Watson.

Consecințele autocorelației

Ie Criteriul Durbin-Watson este definit ca raportul dintre suma pătratelor diferențelor de valori ale reziduurilor consecutive și suma pătratelor reziduurilor. În problemele econometriei, valoarea criteriului Durbin-Watson este indicată împreună cu coeficientul de corelație, valorile criteriilor Fisher și Student.

Consecințele autocorelației

17. Metode pentru eliminarea autocorelației. Proceduri de evaluare pentru Cochrane-Orcutta și Hildretha-Lou

În legătură cu faptul că prezența autocorelației în modelul de regresie între resturile modelului poate conduce la rezultate negative ale întregului proces de estimare a coeficienților necunoscuți ai modelului, și anume:







a) o creștere a variațiilor în estimările parametrilor modelului;

b) prejudecată a estimărilor obținute de MNC;

c) reducerea importanței estimărilor parametrilor,

Autocorelarea reziduurilor trebuie eliminată.

Principalul motiv pentru prezența unui termen accidental în model este o cunoaștere imperfectă a cauzelor și relațiilor care determină o valoare particulară a variabilei dependente. Prin urmare, proprietățile abaterilor aleatorii, inclusiv autocorelația, depind în primul rând de alegerea formulei de dependență și de compoziția variabilelor explicative.

Deoarece autocorelația este cauzată cel mai adesea de o specificare incorectă a modelului, este necesar, în primul rând, corectarea modelului în sine. Poate că autocorelația este cauzată de absența în model a unor variabile explicative importante. Ar trebui să încercați să determinați acest factor și să îl luați în considerare în ecuația de regresie. De asemenea, puteți încerca să modificați formula dependenței (de exemplu, liniare la hiperbolic etc.).

Pentru simplitatea AR (1), luați în considerare modelul de regresie liniară pe perechi. Apoi formulele t și (t - 1) corespund formulelor: și.

Se scade din observație t raportul de observare (t - 1) înmulțit cu ρ:

Aplicați transformarea modelului:

Apoi, în variabilele noi, modelul ia forma: în care variabila șoc nu mai este distorsionată de autocorelație.

Această transformare (D) face parte din clasa de decorare a operatorilor [7]. Aceasta duce la pierderea primei observații (dacă nu avem o observație anterioară). Numărul de grade de libertate scade cu 1, ceea ce pentru eșantioanele mari nu este atât de important, dar pentru cele mici poate duce la pierderea eficienței. Această problemă este de obicei depășită cu ajutorul modificării Price-Winsten:

Se poate arăta că în cazul autocorelației reziduurilor, matricea de covarianță a vectorului de abatere aleatorie are forma:

În MNC generalizat, parametrii ecuației de regresie sunt determinați prin formula Aitken:

Consecințele autocorelației

Cu toate acestea, în practică, valoarea coeficientului ρ este, de obicei, necunoscută și trebuie evaluată. Există mai multe metode pentru estimarea lui ρ.

1. Bazat pe statisticile Durbin-Watson. pentru că este strâns legată de coeficientul de corelație dintre abaterile învecinate prin relație

Consecințele autocorelației
, atunci, ca o estimare a coeficientului ρ, se poate lua coeficientul r:
Consecințele autocorelației
Această metodă de estimare nu este rea pentru un număr mare de observații, deoarece în acest caz estimarea parametrului ρ va fi destul de precisă.

2. Metoda de Cochrane-Orcutta. include următoarele etape:

1. Aplicând OLS la ecuația de regresie inițială, se obțin estimările inițiale ale parametrilor a0 și a1; calculați reziduurile

2. Ca o estimare a parametrului ρ, estimatorul său OLS este utilizat în regresie.

3. Aplicând OLS generalizat la ecuația transformată, se obțin noi estimări ale parametrilor a0 și a1.

4. Construiți un vector nou de reziduuri

Consecințele autocorelației
iar procesul revine la pasul 2.

Etapele sunt alternate până când se obține precizia necesară, adică, până când diferența dintre estimările anterioare și ulterioare ale lui ρ devine mai mică decât orice număr preasignat.

Procedura KO este implementată în majoritatea programelor pentru calculator.

3. Procedura Hildrath-Lu este utilizată și în pachetele de regresie. Metoda se bazează pe aceleași principii, însă utilizează un alt algoritm de calcul:

1. Ecuația transformată este estimată pentru fiecare valoare a lui ρ din intervalul (-1; 1) cu un pas specificat în ea.

2. Alegeți o valoare a lui ρ pentru care suma reziduurilor pătrate în ecuația transformată este minimă, iar coeficienții de regresie sunt determinați prin evaluarea ecuației transformate utilizând această valoare.

3. În vecinătatea acestei valori, este amplasată o rețea mai mică și procesul de selectare a celei mai bune valori a lui ρ este efectuat până când se obține precizia necesară.







Articole similare

Trimiteți-le prietenilor: