Modelul de regresie generalizat

Dacă ipotezele de bază ale metodei celor mai mici pătrate nu sunt îndeplinite, modelul trebuie corectat: modificarea formei sale, adăugarea sau, dimpotrivă, excluderea factorilor, transformarea datelor inițiale și așa mai departe. În mod obișnuit, de cele mai multe ori, în practică, trebuie să ne ocupăm de situații în care nu sunt îndeplinite cerințele 3 și 4, astfel încât perturbațiile modelului au o variație constantă și nu sunt corelate unul cu celălalt.







Neîndeplinirea condițiilor prealabile 3. adică încălcarea stării de homoscedasticitate a perturbărilor (8). înseamnă că dispersia perturbării depinde de valorile factorilor. Astfel de modele de regresie sunt numite modele cu heteroscedasticitate a perturbărilor. De exemplu, în studiul poate fi de așteptat ca răspândirea să se odihnească cheltuielile pentru clienții mai bogate în funcție de cost de bonuri de călătorie (Y variabilă) din venitul mediu lunar al agentului de turism al clientului (factorul X) decât pentru mai puțin bogate, adică varianța perturbărilor nu va fi aceeași pentru diferite valori ale factorului X (Figura 1).

Fig. 1. Model de regresie liniară cu heteroscedasticitate a perturbațiilor

Dacă există o Heteroskedasticity perturbație, estimările parametrilor modelului (1) o metodă convențională mai mici pătrate nu ar fi eficiente, adică. E. Ele nu sunt cei mai puțin dispersia. Valoarea calculată a erorilor standard ale coeficienților de regresie ai ecuației (2) poate fi prea mică, iar la testarea semnificația statistică a coeficienților poate fi decizii greșite cu privire la diferențele lor semnificative de zero, în timp ce de fapt nu este.

Pentru un număr mic de observații, ceea ce este tipic de metodă de cercetare econometrică Goldfeld-Quandt pot fi folosite pentru a detecta heteroscedasticitate. Acest test este utilizat în cazul în care se presupune că perturbația modelului de regresie sunt distribuite în mod normal, iar deviația standard a perturbațiilor (i = 1, 2, ..., n) valoare crește în proporție factor. Verificarea se efectuează pentru toți factorii incluși în model sau numai pentru factorii care presupun că afectează omogenitatea populației studiate. Verificarea cu un factor Xj se efectuează în următoarea ordine:

1. Toate resturile n sunt ordonate prin creșterea valorilor factorului Xj.

2. În seria ordonată, sunt selectate k reziduurile k și k ultimul, cu k fiind mai mare decât numărul de factori inclusi în model. De obicei acceptat. Reziduurile centrale sunt astfel excluse din considerație.

3. Pentru fiecare grupă de reziduuri selectate, se determină suma pătratelor lor: și.

4. Statistica F a lui Fisher este calculată prin formula. dacă SS1> SS2. sau prin formula. dacă SS2> SS1.

5. Ipoteza statistică a perturbatiilor egală variație, nu sunt respinse în cazul în care valoarea tabelul F-statistici nu depășește Fischer F-test pentru nivelul de semnificație a unei primite și numărul de grade de libertate ale numărătorul și numitorul. unde p este numărul de factori din model (vezi apendicele).

Condiția 4 [condiția (10)] poate să nu fie îndeplinită atunci când se construiește modelul de regresie din seria de timp a variabilelor studiate, unde, ținând cont de prezența tendinței, nivelurile ulterioare ale seriei pot depinde de nivelurile anterioare. În acest caz, se spune că există o autocorelare a perturbărilor în model. Alte motive pentru autocorelație sunt:







Ø ignorarea oricărui factor important din model;

Ø alegerea incorectă a formei dependenței de regresie;

Ø prezența erorilor în măsurarea rezultatului;

Ø caracterul ciclic al indicatorilor economici;

Ø întârzierea schimbărilor în valorile indicatorilor în raport cu modificările condițiilor economice.

În prezența perturbațiilor Autocorelare metoda mici pătrate oferă estimări imparțiale și consistente ale parametrilor de model, cu toate acestea, sunt ineficiente, t. E. Nu sunt cel mai puțin dispersia. Comparativ cu cabluri heteroskedasticitate autocorelație perturbație, invers, la o supraestimare erorile standard ale coeficienților de regresie ai ecuației. Pe baza acestor rezultate, se poate concluziona în mod eronat un efect nesemnificativ al factorului de test asupra variabilei dependente, în timp ce, de fapt, factorul de impact să-l în mod semnificativ.

Autocorelarea perturbațiilor este pozitivă sau negativă. Pozitivitatea autocorelației se manifestă prin faptul că valorile supraestimate ale perturbațiilor observațiilor anterioare ale rezultatului Y conduc la o supraestimare a perturbațiilor observațiilor ulterioare. Pe graficul seriilor de timp ale reziduurilor de regresie se exprimă, de exemplu, în alternarea zonelor reziduurilor pozitive și negative (figura 2). Cu autocorelație negativă. dimpotrivă, valorile supraevaluate ale perturbațiilor observațiilor anterioare subestimează perturbațiile observațiilor ulterioare, iar regresiile rămase "prea adesea" își schimbă semnul (figura 3).

Autocorelarea tulburărilor se evidențiază prin examinarea unui număr de reziduuri utilizând diferite criterii. Testul Durbin-Watson este cel mai des folosit în acest scop. pe baza presupunerii că dacă există o autocorelare a perturbațiilor, atunci ea este prezentă și în seria de timp a reziduurilor regresiei. Testul se bazează pe calculul d Statistici # 8209;

a căror valoare este comparată cu valorile critice d1 și d2 (vezi anexa). Pot apărea următoarele situații:

· Dacă. atunci tulburările sunt recunoscute ca necorelate;

· Dacă. atunci există o autocorelare pozitivă a perturbărilor;

· Dacă. atunci există o autocorelare negativă;

· Dacă sau. acest lucru indică o situație incertă.

În cel de-al doilea caz, pentru a determina autocorelația, coeficientul de autocorelare al reziduurilor de ordinul întâi

Ipoteza statistică a absenței autocorelației perturbațiilor nu se abate de la nivelul de semnificație acceptat a, dacă coeficientul de autocorelare nu depășește valoarea critică în valoare absolută (vezi anexa). În caz contrar, concluzia se face cu privire la autocorelarea perturbărilor: o valoare pozitivă a coeficientului de autocorelare indică o autocorelare pozitivă, iar o valoare negativă indică o corelație negativă, respectiv.

Fig. 2. Modelul de regresie cu autocorelație pozitivă a perturbațiilor

Fig. 3. Modelul de regresie cu autocorelație negativă a perturbațiilor

Neîndeplinirea condițiilor 3 și 4 înseamnă că covarianța și dispersia perturbațiilor pot fi arbitrare, adică datorită unei anumite matrice definite pozitiv W:

unde W este matricea de covarianță a vectorului de perturbare.

Modelul de regresie multiplă pentru care condiția (22) este îndeplinită. se numește modelul generalizat de regresie liniară (Modelul generalizat de regresie liniară generalizată). Pentru a obține estimări imparțiale și cele mai eficiente ale parametrilor unui astfel de model, aplicați metoda Generalized Squares, a cărei condiție este:

Vectorul estimărilor b * de parametri ai modelului generalizat este definit ca

Trebuie remarcat faptul că coeficientul de determinare R 2 pentru modelul generalizat nu este o măsură satisfăcătoare a calității sale și poate fi utilizată doar ca o caracteristică aproximativă a modelului.

În practică, matricea de covarianță W. vectorul perturbațiilor de obicei necunoscute, și pentru a pune în aplicare o metodă a celor mai mici pătrate generalizată este necesară introducerea unor condiții suplimentare asupra structurii matricei W. Eliminarea heteroscedasticității autocorelare și perturbațiile produse separat, care sunt utilizate pentru cazuri speciale ale metodei celor mai mici pătrate generalizată.







Trimiteți-le prietenilor: