pokazuje zależność liniową między zmiennymi niezależnymi i zmienną zależną. Jest zdefiniowany jako 1 - S S ER2 która jest sumą błędów do kwadratu podzieloną przez całkowitą sumę kwadratów. SSTO=SSE+SSR,które są błędem całkowitym i sumą kwadratów regresji. W miarę dodawania zmiennych niezależnychSSRbędzie nadal wzrastał (a ponieważSSTOjest ustalony)SSEspadnie, aR2będzie stale wzrastał bez względu na to, jak cenne są dodane przez ciebie zmienne.1−SSESSTOSSTO=SSE+SSRSSRSSTOSSER2
Skorygowana próbuje uwagę skurcz statystycznych. Modele z tonami predyktorów mają tendencję do osiągania lepszych wyników w próbce niż w przypadku testowania poza próbką. Skorygowane R 2 „karze” za dodanie dodatkowych predyktorów, które nie poprawy istniejącego modelu. Może to być pomocne w wyborze modelu. Skorygowany R 2 wyniesie R 2 dla jednej zmiennej predykcyjnych. Jak dodać zmienne, to będzie mniejszy niż R 2 .R2R2R2R2R2
R ^ 2 wyjaśnia udział wariancji zmiennej zależnej (Y) wyjaśnionej przez zmienne niezależne (X) dla modelu regresji liniowej.
Po skorygowaniu R ^ 2 podaje proporcję wariancji zmiennej zależnej (Y) wyjaśnioną przez więcej niż 1 zmienną niezależną (X) dla modelu regresji liniowej.
źródło
R-Squared rośnie nawet po dodaniu zmiennych, które nie są powiązane ze zmienną zależną, ale skorygowane R-Squared dba o to, ponieważ zmniejsza się, ilekroć dodajesz zmienne, które nie są powiązane ze zmienną zależną, dlatego po rozważeniu prawdopodobne jest, że zmniejszyć.
źródło