Multikolinearitāte - kas tas ir, definīcija un jēdziens - 2021. gads

Multikolinearitāte ir spēcīga lineārā atkarības attiecība starp vairāk nekā diviem skaidrojošiem mainīgajiem daudzkārtējā regresijā, kas pārkāpj Gausa-Markova pieņēmumu, kad tas ir precīzi.

Citiem vārdiem sakot, daudzkolinearitāte ir augsta korelācija starp vairāk nekā diviem skaidrojošiem mainīgajiem.

Mēs uzsveram, ka lineārajai sakarībai (korelācijai) starp paskaidrojošajiem mainīgajiem ir jābūt spēcīgai. Ļoti bieži regresijas skaidrojošie mainīgie korelē. Tātad jānorāda, ka šīm attiecībām jābūt stiprām, bet nekad nevainojamām, lai tās varētu uzskatīt par daudzkolinearitātes gadījumu. Lineārā sakarība būtu ideāla, ja korelācijas koeficients būtu 1.

Kad šīs spēcīgās lineārās (bet ne perfektās) attiecības rodas tikai starp diviem paskaidrojošiem mainīgajiem, mēs sakām, ka tas ir kolinearitātes gadījums. Būtu daudzkolinearitāte, ja starp vairāk nekā diviem neatkarīgiem mainīgajiem pastāv spēcīga lineāra sakarība.

Gausa-Markova pieņēmums par precīzu ne-multikolinearitāti nosaka, ka izlases skaidrojošie mainīgie nevar būt nemainīgi. Turklāt starp skaidrojošiem mainīgajiem lielumiem nevajadzētu būt precīzām lineārām attiecībām (nav precīzas daudzkolinearitātes). Gauss-Markovs nepieļauj mums precīzu daudzkolinearitāti, bet tuvina daudzkolinearitāti.

Regresijas analīze

Pieteikumi

Ir ļoti īpaši gadījumi, parasti nereāli, kad regresijas mainīgie nav pilnīgi savstarpēji saistīti. Šajos gadījumos mēs runājam par izskaidrojošo mainīgo eksogēnitāti. Sociālās zinātnes parasti ir slavenas ar to, ka savās regresijās iekļauj aptuvenu daudzkolinearitāti.

Precīza multikolinearitāte

Precīza multikolinearitāte rodas, ja vairāk nekā divi neatkarīgi mainīgie ir citu neatkarīgu mainīgo lineāra kombinācija regresijā.

Problēmas

Kad Gauss Markovs aizliedz precīzu daudzkolinearitāti, tas ir tāpēc, ka mēs nevaram iegūt parasto mazāko kvadrātu (OLS) novērtētāju.

Matemātiski izsakot aprēķināto beta apakš-i matricas formā:

Tātad, ja ir precīza daudzkolinearitāte, matricai (X'X) ir determinants 0 un tāpēc tā nav invertējama. Ja neesat invertējams, tas nozīmē, ka nevarat aprēķināt (X'X)-1 un līdz ar to neviena no tām nav novērtēta Beta apakš-i.

Aptuvenā daudzkolinearitāte

Aptuvenā daudzkolinearitāte rodas, ja vairāk nekā divi neatkarīgi mainīgie nav precīzi (tuvinājums) citu neatkarīgu mainīgo lineārā kombinācija regresijā.

Mainīgais k apzīmē nejaušu mainīgo (neatkarīgs un identiski sadalīts (i.i.d)). Jūsu novērojumu biežumu var apmierinoši tuvināt standarta normālajam sadalījumam ar vidējo 0 un dispersiju 1. Tā kā tas ir nejaušs mainīgais, tas nozīmē, ka katrā novērojumā i k vērtība būs atšķirīga un neatkarīga no jebkuras iepriekšējās vērtības.

Problēmas

Matemātiski izteikt matricas formā:

Tātad, ja ir aptuvena daudzkolinearitāte, tas izraisa matricu (X'X) aptuveni 0 un noteikšanas koeficientu ļoti tuvu 1.

Risinājums

Daudzkolinearitāti var samazināt, izslēdzot mainīgo lielumu regresorus ar augstu lineāru saistību starp tiem.

Lineārās korelācijas koeficients