Hur bra r modellen som vi har anpassat
Hur bra är modellen som vi har anpassat? Vi bedömer modellen med hjälp av ett antal kriterier: – visuell bedömning, om möjligt – F-test, signifikanstest för hela regressionsmodellen – förklaringsgraden, R 2 – p-värden för de individuella variablerna eller t-kvoter – Residualanalys, för att avgöra om regressionsantagandena är uppfyllda 1
Visuell bedömning: 2
Hur bra är modellen som vi har anpassat? The regression equation is Hyra = 721 + 60. 5 Kv-meter Predictor Constant Kv-meter S = 525. 5 Coef 720. 9 60. 533 SE Coef 370. 2 5. 713 R-Sq = 85. 5% Analysis of Variance Source Regression Residual Error Total enskilda p-värden DF 1 19 20 T 1. 95 10. 60 P 0. 066 0. 000 R-Sq(adj) = 84. 8% R 2 och justerad R 2 SS 31002923 5247087 36250010 MS 31002923 276162 F 112. 26 P 0. 000 F-test och dess p-värde Residualanalys kan också göras i MINITAB 3
Varför behöver vi så många olika mått på hur bra modellen är? Om vi bara har en förklarande variabel, så spelar det inte så stor roll vilket mått vi använder: p-värden, R 2 och Ftest är i princip utbytbara. Residualanalys måste dock alltid genomföras. I de flesta fall kommer vi dock att ha modeller med mer än bara en förklarande variabel. Då är det viktigt att titta på de olika kriterierna var för sig, eftersom de ger olika information. 4
Vi har redan genomfört t-testet för de enskilda parametrarna (intercept och lutning) för att se om de är signifikant skilda från noll. Hur beräknas då R 2 och F-testet? Båda är baserade på en jämförelse av – hur mycket av variationen i responsvariabeln som kan förklaras genom modellen och – hur mycket av variationen som inte kan förklaras 5
Vi har redan räknat med ett mått för den oförklarade variationen: Residualkvadratsumman, som också ofta betecknas med SSE (Sum of Squared Errors). Ett mått på den totala variationen är också ganska enkelt att ta fram: variationen i responsvariabeln, SSyy, som i regressionssammanhang ofta kallas för SST (Totalkvadratsumman). 6
För att göra kvadratsummeuppdelningen komplett kan vi beräkna SSR (Sum of Squares Regression), den förklarade variationen. SSR = SST - SSE eller SST = SSR + SSE Den totala variationen är summan av den (av modellen) förklarade variationen och den återstående variationen. SSR är den del av variationen som inte är slump, men kan förklaras av regressionssambandet. 7
Förklaringsgrad och korrelationskoefficient Förklaringsgraden betecknas med R 2 Ju högre förklaringsgrad, desto bättre lyckas vår skattade modell förklara variationen i data Modellen kan anses vara bra. I vårt exempel blev R 2 = 85. 5%, dvs. att 85. 5% av all variation i data kan förklaras med hjälp av modellen. 8
Utvikning: Kom ihåg korrelationskoefficienten som mäter det linjära sambandet mellan x och y. I motsats till regressionsmodellen finns det i korrelationskoefficienten ingen kausalitet: • regressionsmodellen: x påverkar y, men inte tvärtom • korrelationskoefficienten: x och y hänger ihop 9
Korrelationskoefficienten ligger alltid mellan – 1 och 1. Om den är = – 1 eller = 1 säger man att det råder ett perfekt linjärt samband mellan y och x. Om r = 0 finns inget linjärt samband mellan y och x. (Det kan dock finnas andra samband, t. ex. kvadratiska) I vårt fall blir korrelationskoefficienten r=0. 925 Observera att r 2=(0. 925)2=0. 8556 R 2 Men detta gäller bara i fallet med en förklaringsvariabel, inte om vi inkluderar fler oberoende variabler i modellen. 10
F-test: MSE har vi träffat på förut, men då kallade vi den för . På MINITAB-utskriften kan vi hitta både MSE och se. Om vi bara har en förklarande variabel, så är SSR/1=MSR. Värdet på F-testet ska jämföras med F-fördelningen med 1 och (n-2) frihetsgrader I vårt fall: Ur tabellen: signifikant 11
F är ett mått på hur stor den förklarade variationen är jämfört med den oförklarade. Om F är stor då har vi en bra modell som kan förklara mycket och lämnar lite oförklarat. Om vi bara har en förklarande variabel i modellen, så är F = t 2 där t kommer från t-testet, när man testar b 1. 12
The regression equation is Hyra = 721 + 60. 5 Kv-meter Predictor Constant Kv-meter S = 525. 5 Coef 720. 9 60. 533 R-Sq = 85. 5% Analysis of Variance Source Regression Residual Error Total SE Coef 370. 2 5. 713 DF 1 19 20 SSR SS 31002923 5247087 36250010 SST T 1. 95 10. 60 P 0. 066 0. 000 R-Sq(adj) = 84. 8% MSR MS 31002923 276162 SSE F 112. 26 MSE P 0. 000 F-test 13
Multipel regressionsanalys I stället för en förklarande variabel kan vi inkludera flera. Vi får dock tänka på att inte inkludera sådana variabler som inte har någon eller som bara har marginell betydelse för responsvariabeln. Återigen inkluderas en felterm e i modellen, som står för den del i variationen av y som inte kan förklaras genom modellen. Feltermen har medelvärde 0 och varians s 2 och är normalfördelad och varje e är oberoende av de andra e. 14
t-test och konfidensintervall för de enskilda parametrarna (b 1, b 2, . . . , bk) i modellen beräknas i princip på samma sätt som förut. Men nu använder man en t-fördelning med n-k-1 frihetsgrader. F-test korrigeras lite genom att inkludera k (antal förklarande variabler i modellen): Observera att formeln är den samma som förut om man sätter k=1. Förklaringsgrad beräknas fortfarande: 15
Kvadratsummeuppdelningen gäller förstås också: SST = SSR + SSE SST, SSR beräknas som förut, och även SSE beräknas som förut: eftersom punktskattningen/punktprognosen nu är: Observera att alla sådana beräkningar görs för varje observation, även om index i inte alltid är med. 16
Konfidensintervall för punktskattningen och prognosintervall for punktprognosen beräknas i princip på samma sätt Konfidensintervall Prognosintervall Men “Distance value” kan inte beräknas lika enkelt som i fallet med en förklarande variabel. Däremot kan man ta den rätt enkelt från datorutskriften (senare). 17
Följande datamaterial innehåller uppgifter om 150 slumpmässigt valda fastigheter i USA Column Name C 1 Price C 2 Area C 3 Acres C 4 Rooms C 5 Baths Count 150 150 150 Description Price Area in square feet Acres Number of rooms Number of baths Modell y x 1 x 2 x 3 x 4 Översättning pris bostadsyta tomtyta antal rum antal badrum Källa: ”MTBWIN”/Student 12/HOMES. MTW 18
Pris mot bostadsyta 19
Pris mot tomtyta 20
Pris mot antal rum 21
Pris mot antal badrum 22
Vi börjar med en modell som inte inkluderar alla förklarande variabler, men bara de som verkar viktigast: bostadsyta och antal rum. 23
Regression Analysis: Price versus Area, Rooms The regression equation is Price = 64221 + 49. 7 Area - 141 Rooms Predictor Constant Area Rooms Coef 64221 49. 673 -141 SE Coef 12766 7. 507 2934 T 5. 03 6. 62 -0. 05 P 0. 000 0. 962 Signifikanstest för t. ex. b 1: är den skattade standardavvikelsen av b 1 Vi jämför t med t-fördelningen med n-k-1=150 -2 -1 frihetsgrader. 24
t-fördelning med 147 frihetsgrader för ett dubbelsidig test är p-värdet sannolikheten att få ett värde t eller ännu större eller ett värde –t eller ännu mindre. -6. 62 t=6. 62 25
Regression Analysis: Price versus Area, Rooms The regression equation is Price = 64221 + 49. 7 Area - 141 Rooms Predictor Constant Area Rooms Coef 64221 49. 673 -141 SE Coef 12766 7. 507 2934 T 5. 03 6. 62 -0. 05 P 0. 000 0. 962 inte signifikant 26
S = 30047 R-Sq = 48. 6% R-Sq(adj) = 47. 9% Analysis of Variance Source Regression Residual Error Total DF SS MS 2 1. 25273 E+11 62636682991 147 1. 32715 E+11 902824574 149 2. 57989 E+11 F 69. 38 P 0. 000 F-testet är signifikant 27
Vad står F-testet för i detta fall? F-testet testar om ‘den linjära regressionsmodellen’ är signifkant eller inte. Om vi bara har en förklarande variabel då är det samma som att testa om denna variabel (parameter b 1) är signifikant. Om vi har flera förklarande variabler, då testar vi om H 0: alla parametrar b 1, b 2, . . . , bk är lika med 0 H 1: minst en av parametrarna b 1, b 2, . . . , bk är inte 0 För att bestämmer vilka parametrar som är skilda från 0 använder vi t-testet. 28
Vad är R-sq(adj) då? Justerad R 2: 29
När man anpassar en regressionsmodell har man oftast två mål: • att hitta en modell som beskriver datamaterialet så bra som möjligt (de anpassade värdena ska ligga nära observationerna ) • att hitta en modell som kan göra prediktioner för nya observationer. Göra bra punktprediktioner. Genom att inkludera stora mängder förklarande variabler kan man ofta få bättre och bättre anpassning till datamaterialet, men prognoserna för nya observationer kan bli sämre (överanpassning). 30
Det vanliga R 2 -värdet ökar alltid när man lägger till fler förklarande variabler. Det justerade R 2 -värdet ökar inte alltid om man lägger till fler förklarande variabler, eftersom det innehåller en korrektion för antalet förklarande variabler i modellen (k). Justering för att antalet förklarande variabler är k Justering, så att föklaringsgraden fortfarande ligger mellan 0 och 100%. 31
Punktskattning och punktprognos Nu vill vi göra en prognos för priset på en fastighet med – bostadsytan: 3000 ft 2 och – antal rum: 6, och ett 95% prediktionsintervall i MINITAB 32
Regression Analysis: Price versus Area, Rooms Samma utskrift som tidgare Predicted Values for New Observations New Obs 1 X Fit SE Fit 212396 12307 95. 0% CI ( 188076, 236717) 95. 0% PI ( 148229, 276564) XX denotes a row with X values away from the center XX denotes a row with very extreme X values Values of Predictors for New Observations New Obs Area Rooms 1 3000 6. 00 Prediktionsintervall 33
Regression Analysis: Price versus Area, Rooms Samma utskrift som tidgare Predicted Values for New Observations New Obs 1 X Fit SE Fit 212396 12307 95. 0% CI ( 188076, 236717) 95. 0% PI ( 148229, 276564) XX denotes a row with X values away from the center XX denotes a row with very extreme X values Values of Predictors for New Observations New Obs Area Rooms 1 3000 6. 00 Konfidensintervall för det genomsnittliga priset på fastigheter med 3000 ft 2 och 6 rum. 34
‘Distance value’ kan, som sagt, inte enkelt beräknas från datamaterialet om vi har fler än en förklarande variabel. Men den kan beräknas ur New Obs 1 Fit SE Fit 212396 12307 95. 0% CI ( 188076, 236717) 95. 0% PI ( 148229, 276564) XX SE Fit är standardavvikelsen för punktskattningen 35
Får vi någon ytterligare information från prognosen? Predicted Values for New Observations New Obs 1 Fit 212396 SE Fit 12307 ( 95. 0% CI 188076, 236717) ( 95. 0% PI 148229, 276564) XX X denotes a row with X values away from the center XX denotes a row with very extreme X values Varning att fastigheten vi vill veta någonting om har extrema värden för x. Vi kan göra tillförlitliga prognoser bara för fastigheter där vi har liknande fastigheter redan i ursprungliga datamaterialet. 36
Om vi t. ex bara har bostadsytan som förklarande variabel: Prediktioner utanför området där vi har observationer är inte tillförlitliga 37
Pris mot bostadsyta Få observation med bostadsyta 3000 ft 2 eller större, men ändå väl inom området där vi har observation 38
Pris mot antal rum 39
Vad är då problemet? Om vi tittar på datamaterialet så ser vi att de fastigheter som ingår och har exakt 6 rum har en bostadsyta mellan 1008 och 1900 ft 2. Det är alltså kombinationen 3000 ft 2 och 6 rum som är extrem och vi måste fundera över om det är rimligt att anta att modellen är giltig även för denna typ av fastighet. pris area rooms 117000 1008 6 108000 1036 6 126500 1092 6 133000 1100 6 116000 1100 6 98000 1165 6 129000 1200 6 126000 1232 6 117000 1248 6 110000 1289 6 117500 1300 6 121900 1300 6 100000 1338 6 128500 1344 6 135000 1400 6 140000 1403 6 152000 1450 6 110000 1450 6 142500 1552 6 150000 1564 6 120500 1600 6 141900 1632 6 145900 1680 6 144900 1900 6 40
Residualanalys För att överhuvudtaget kunna ta resultaten av regressionsanalysen på allvar, måste vi undersöka om regressionsantagandena är uppfyllda. – – Har residualerna en konstant varians? Är residualerna normalfördelade? Är residualerna oberoende? Är alla samband linjära? 41
Har residualerna en konstant varians? Plotta residualerna mot anpassade värden (residuals vs fits) Är residualerna normalfördelade? Histogram av residualerna Normalfördelningsdiagram av residualerna (Normal plot. . . ) Är residualerna oberoende? Plotta residualerna i observationsordning (residuals vs order). Är alla samband linjära? Plotta residualerna mot enskilda förklarande variabler (Residuals vs the variables) 42
43
- Slides: 43