Il Modello di Regressione Multipla Introduzione Il modello
- Slides: 19
Il Modello di Regressione Multipla
Introduzione Il modello di regressione multipla è la naturale generalizzazione di quello semplice, in quanto considera variabili esplicative per la spiegazione della variabile dipendente. Seguendo lo sviluppo della regressione semplice il modello di regressione multipla si scrive: dove sono i coefficienti di regressione equivalente a:
Introduzione In termini matriciali: ; Il modello di regressione lineare multiplo in forma matriciale si scrive:
Ipotesi del modello di regressione v. c. indipendenti (varianza costante) Omoschedasticità Relazione di linearità, con parametri fissi Le variabili indipendenti con deterministiche, sono linearmente
Stima dei parametri Il problema che si pone è quello di stimare i coefficienti di regressione. Parimenti alla regressione semplice, si adotterà il metodo dei minimi quadrati. Per determinare la soluzione del sistema e per dimostrare alcune proprietà degli stimatori si adotterà la nozione matriciale: Ovvero: (residuo)
Stima dei parametri Occorre trovare il vettore tale che: Sviluppando ed uguagliando a zero la derivata prima, di ottiene: N. B. la matrice X’X deve essere di rango pieno per poterla invertire
Stima dei parametri Determinati i valori dei coefficienti di regressione, si può scrivere il modello di regressione stimato:
Proprietà degli stimatori Al variare del campione le stime definito da: Sostituendo generano lo stimatore si ha: Matrice identità poichè dunque è uno stimatore corretto di
Proprietà degli stimatori la varianza di è Indicando con l’elemento della matrice dalla riga k+1 e dalla colonna j+1, si ha: individuato
Proprietà degli stimatori Stima del parametro : il modello di regressione consente di ottenere uno stimatore corretto. Si consideri la somma dei quadrati dei residui: Indicando con lo stimatore di si può dimostrare che: Numero delle variabili Sostituendo con si ha:
Misura della bontà di adattamento si dimostra, come nel caso della regressione semplice, la seguente scomposizione: media Devianza totale Valore osservato Devianza residua Valore teorico Devianza di regressione
Misura della bontà di adattamento Come nel caso della regressione semplice la precedente può scriversi: La quantità: è chiamata coefficiente di determinazione multiplo e si interpreta come quella parte di variabilità di y spiegata dal modello di regressione.
Misura della bontà di adattamento Nel modello di regressione multipla l’indice di determinazione lineare può presentare alcuni problemi calcolatori e di interpretazione. Ad esempio, in caso di assenza di relazione lineare non è pari a zero. È bene ricorrere perciò all’indice Numero delle osservazioni Che varia sempre tra “ 0” e “ 1”. corretto: Numero delle variabili
Verifica delle ipotesi si può dimostrare, con l’ipotesi di normalità di ha distribuzione Le variabili casuali Se di libertà. Le variabili casuali e con , che: gradi di libertà. sono indipendenti. , ha distribuzione e sono indipendenti. Stimatore di SSR con gradi
Verifica delle ipotesi Dai i primi due risultati, segue che la quantità: ha distribuzione t di Student con n-p-1 gradi di libertà. È così possibile costruire intervalli di confidenza e verificare ipotesi su , così se si vuole verificare l’ipotesi contro basta confrontare il valore di t calcolato con Se si accetta tabulato.
Verifica delle ipotesi I due ultimi risultati consentono di verificare l’ipotesi contro l’alternativa che almeno uno dei coefficienti sia diverso da zero. Si vuole verificare la significatività sei coefficienti nel suo complesso. Un test appropriato è dato dal rapporto: Che è una determinazione di una v. c. di Fischer-Snedecor con p e n-p-1 g. l. Se F calcolato è più piccolo del valore tabulato si accetta
Verifica delle ipotesi Il procedimento è riportato in una tabella del tipo di quelle viste precedentemente, per la scomposizione della devianza totale. Sorgente di Variazione Regressione Residuo Totale Somma dei Quadrati (Devianza) Gradi di Libertà Varianza Rapporto
Multicolinearità Con il termine multicollinearità ci si riferisce alla correlazione fra le variabili indipendenti di un modello di regressione. Il suo effetto consiste nel ridurre la capacità previsiva di ogni singola variabile indipendente in modo proporzionale alla forza della sua associazione con le altre variabili indipendenti. L’effetto della multicollinearità può interessare sia la capacità di spiegazione del modello (capacità della procedura di regressione e del ricercatore di rappresentare e capire l’influenza di ciascuna variabile indipendente) sia la sua stima (la sua presenza rende problematica la determinazione dei contributi individuali delle variabili indipendenti, perché i loro effetti vengono “mescolati” o confusi). Va pertanto valutata e individuata.
Multicolinearità Due strumenti a disposizione sono la Tolleranza (Tolerance) e il Fattori di Accrescimento della Varianza (Variance Inflaction Factor). è il quadrato del coefficiente che misura la correlazione fra la i-esima variabile esplicativa e tutte le altre In generale un è in indice di alta multicollinearità.
- Regressione multipla spss
- Esercizi regressione lineare
- Esercizi regressione lineare
- Correlazione e regressione
- Analisi di regressione logistica
- Trappola delle dummy
- Regressione lineare con excel
- Regressione non lineare excel
- Regressione lineare
- Variabile dummy
- Regressione lineare online
- Regressione lineare
- Regressione logistica r
- Primo motoneurone
- Sclerosi multipla e diabete
- Domande a risposta multipla
- Multipla regresija
- Direct costing
- Regressão linear multipla excel
- Sclerosi multipla mielina