Il Modello di Regressione Multipla Introduzione Il modello

  • Slides: 19
Download presentation
Il Modello di Regressione Multipla

Il Modello di Regressione Multipla

Introduzione Il modello di regressione multipla è la naturale generalizzazione di quello semplice, in

Introduzione Il modello di regressione multipla è la naturale generalizzazione di quello semplice, in quanto considera variabili esplicative per la spiegazione della variabile dipendente. Seguendo lo sviluppo della regressione semplice il modello di regressione multipla si scrive: dove sono i coefficienti di regressione equivalente a:

Introduzione In termini matriciali: ; Il modello di regressione lineare multiplo in forma matriciale

Introduzione In termini matriciali: ; Il modello di regressione lineare multiplo in forma matriciale si scrive:

Ipotesi del modello di regressione v. c. indipendenti (varianza costante) Omoschedasticità Relazione di linearità,

Ipotesi del modello di regressione v. c. indipendenti (varianza costante) Omoschedasticità Relazione di linearità, con parametri fissi Le variabili indipendenti con deterministiche, sono linearmente

Stima dei parametri Il problema che si pone è quello di stimare i coefficienti

Stima dei parametri Il problema che si pone è quello di stimare i coefficienti di regressione. Parimenti alla regressione semplice, si adotterà il metodo dei minimi quadrati. Per determinare la soluzione del sistema e per dimostrare alcune proprietà degli stimatori si adotterà la nozione matriciale: Ovvero: (residuo)

Stima dei parametri Occorre trovare il vettore tale che: Sviluppando ed uguagliando a zero

Stima dei parametri Occorre trovare il vettore tale che: Sviluppando ed uguagliando a zero la derivata prima, di ottiene: N. B. la matrice X’X deve essere di rango pieno per poterla invertire

Stima dei parametri Determinati i valori dei coefficienti di regressione, si può scrivere il

Stima dei parametri Determinati i valori dei coefficienti di regressione, si può scrivere il modello di regressione stimato:

Proprietà degli stimatori Al variare del campione le stime definito da: Sostituendo generano lo

Proprietà degli stimatori Al variare del campione le stime definito da: Sostituendo generano lo stimatore si ha: Matrice identità poichè dunque è uno stimatore corretto di

Proprietà degli stimatori la varianza di è Indicando con l’elemento della matrice dalla riga

Proprietà degli stimatori la varianza di è Indicando con l’elemento della matrice dalla riga k+1 e dalla colonna j+1, si ha: individuato

Proprietà degli stimatori Stima del parametro : il modello di regressione consente di ottenere

Proprietà degli stimatori Stima del parametro : il modello di regressione consente di ottenere uno stimatore corretto. Si consideri la somma dei quadrati dei residui: Indicando con lo stimatore di si può dimostrare che: Numero delle variabili Sostituendo con si ha:

Misura della bontà di adattamento si dimostra, come nel caso della regressione semplice, la

Misura della bontà di adattamento si dimostra, come nel caso della regressione semplice, la seguente scomposizione: media Devianza totale Valore osservato Devianza residua Valore teorico Devianza di regressione

Misura della bontà di adattamento Come nel caso della regressione semplice la precedente può

Misura della bontà di adattamento Come nel caso della regressione semplice la precedente può scriversi: La quantità: è chiamata coefficiente di determinazione multiplo e si interpreta come quella parte di variabilità di y spiegata dal modello di regressione.

Misura della bontà di adattamento Nel modello di regressione multipla l’indice di determinazione lineare

Misura della bontà di adattamento Nel modello di regressione multipla l’indice di determinazione lineare può presentare alcuni problemi calcolatori e di interpretazione. Ad esempio, in caso di assenza di relazione lineare non è pari a zero. È bene ricorrere perciò all’indice Numero delle osservazioni Che varia sempre tra “ 0” e “ 1”. corretto: Numero delle variabili

Verifica delle ipotesi si può dimostrare, con l’ipotesi di normalità di ha distribuzione Le

Verifica delle ipotesi si può dimostrare, con l’ipotesi di normalità di ha distribuzione Le variabili casuali Se di libertà. Le variabili casuali e con , che: gradi di libertà. sono indipendenti. , ha distribuzione e sono indipendenti. Stimatore di SSR con gradi

Verifica delle ipotesi Dai i primi due risultati, segue che la quantità: ha distribuzione

Verifica delle ipotesi Dai i primi due risultati, segue che la quantità: ha distribuzione t di Student con n-p-1 gradi di libertà. È così possibile costruire intervalli di confidenza e verificare ipotesi su , così se si vuole verificare l’ipotesi contro basta confrontare il valore di t calcolato con Se si accetta tabulato.

Verifica delle ipotesi I due ultimi risultati consentono di verificare l’ipotesi contro l’alternativa che

Verifica delle ipotesi I due ultimi risultati consentono di verificare l’ipotesi contro l’alternativa che almeno uno dei coefficienti sia diverso da zero. Si vuole verificare la significatività sei coefficienti nel suo complesso. Un test appropriato è dato dal rapporto: Che è una determinazione di una v. c. di Fischer-Snedecor con p e n-p-1 g. l. Se F calcolato è più piccolo del valore tabulato si accetta

Verifica delle ipotesi Il procedimento è riportato in una tabella del tipo di quelle

Verifica delle ipotesi Il procedimento è riportato in una tabella del tipo di quelle viste precedentemente, per la scomposizione della devianza totale. Sorgente di Variazione Regressione Residuo Totale Somma dei Quadrati (Devianza) Gradi di Libertà Varianza Rapporto

Multicolinearità Con il termine multicollinearità ci si riferisce alla correlazione fra le variabili indipendenti

Multicolinearità Con il termine multicollinearità ci si riferisce alla correlazione fra le variabili indipendenti di un modello di regressione. Il suo effetto consiste nel ridurre la capacità previsiva di ogni singola variabile indipendente in modo proporzionale alla forza della sua associazione con le altre variabili indipendenti. L’effetto della multicollinearità può interessare sia la capacità di spiegazione del modello (capacità della procedura di regressione e del ricercatore di rappresentare e capire l’influenza di ciascuna variabile indipendente) sia la sua stima (la sua presenza rende problematica la determinazione dei contributi individuali delle variabili indipendenti, perché i loro effetti vengono “mescolati” o confusi). Va pertanto valutata e individuata.

Multicolinearità Due strumenti a disposizione sono la Tolleranza (Tolerance) e il Fattori di Accrescimento

Multicolinearità Due strumenti a disposizione sono la Tolleranza (Tolerance) e il Fattori di Accrescimento della Varianza (Variance Inflaction Factor). è il quadrato del coefficiente che misura la correlazione fra la i-esima variabile esplicativa e tutte le altre In generale un è in indice di alta multicollinearità.