Multikolinearitāte ir problēma, jo tā mazina neatkarīga mainīgā statistisko nozīmīgumu. Ja citas lietas ir vienādas, jo lielāka ir regresijas koeficienta standartkļūda, jo mazāka iespēja, ka šis koeficients būs statistiski nozīmīgs.
Kā zināt, vai daudzkolinearitāte ir problēma?
Viens no veidiem, kā izmērīt daudzkolinearitāti, ir dispersijas inflācijas koeficients (VIF), kas novērtē, cik daudz palielinās aplēstā regresijas koeficienta dispersija, ja jūsu prognozētāji ir korelēti. … VIF no 5 līdz 10 norāda uz augstu korelāciju, kas var būt problemātiska.
Vai kolinearitāte ir prognozēšanas problēma?
Multikollinearitāte joprojām ir prognozēšanas jaudas problēma. Jūsu modelis būs pārāk piemērots un mazāk ticams, ka tas vispārinās uz datiem, kas nav atlasīti. Par laimi jūsu R2 netiks ietekmēts, un jūsu koeficienti joprojām būs objektīvi.
Kāpēc kolinearitāte ir regresijas problēma?
Multikollinearitāte samazina aprēķināto koeficientu precizitāti, kas vājina jūsu regresijas modeļa statistisko jaudu. Jūs, iespējams, nevarēsit uzticēties p-vērtībām, lai identificētu neatkarīgus mainīgos, kas ir statistiski nozīmīgi.
Kad vajadzētu ignorēt kolinearitāti?
Tas palielina to koeficientu standarta kļūdas, un tas vairākos veidos var padarīt šos koeficientus nestabilus. Bet tik ilgi, kamēr kolineārsmainīgie tiek izmantoti tikai kā kontroles mainīgie, un tie nav kolineāri ar jūsu interesējošajiem mainīgajiem, nav nekādu problēmu.