LA PRUEBA F DE BONDAD DE AJUSTE Vamos
LA PRUEBA F DE BONDAD DE AJUSTE Vamos a considerar el caso general donde hay k – 1 variables explicativas. Para la prueba F de bondad de ajuste de la ecuación, la hipótesis nula es que el modelo no tiene ninguna capacidad explicativa. 2
LA PRUEBA F DE BONDAD DE AJUSTE Esta secuencia describe dos pruebas F de bondad de ajuste en un modelo de regresión múltiple. La primera de ellas relacionada a la bondad de ajuste de la ecuación como tal. 1
LA PRUEBA F DE BONDAD DE AJUSTE Por supuesto, esperamos rechazarla y concluir que el modelo sí tiene cierto poder explicativo. 3
LA PRUEBA F DE BONDAD DE AJUSTE El modelo no tendrá poder explicativo si resulta que Y no está relacionada con ninguna de las variables explicativas. Po lo tanto, en términos matemáticos la hipótesis nula es que todos los coeficientes b 2, . . . , bk son cero. 4
LA PRUEBA F DE BONDAD DE AJUSTE La hipótesis alternativa es que al menos uno de estos ceoficientes b es diferente de cero. 5
LA PRUEBA F DE BONDAD DE AJUSTE En el modelo de regresión multiple existe una diferencia entre el papel de la prueba F y la prueba t. La prueba F analiza el poder explicativo conjunto de las variables, mientras que la prueba t prueba el poder explicativo individualmente. 6
LA PRUEBA F DE BONDAD DE AJUSTE En el modelo de regresión simple la prueba F era equivalente a la prueba t (de dos colas) del coeficeinte de la pendiente, porque el ‘grupo’ consiste en una sola variable. 7
LA PRUEBA F DE BONDAD DE AJUSTE El estadítico F para la prueba fue definido en la última presentación del Capítulo 2. ESS es la suma explicada de cuadrados y RSS es la suma del cuadrado de los residuales. 8
LA PRUEBA F DE BONDAD DE AJUSTE Puede ser expresado en términos de R 2 al dividir el numerador y el denominador entre TSS, la suma total de cuadrados. 9
LA PRUEBA F DE BONDAD DE AJUSTE ESS / TSS es la definición de R 2. RSS / TSS es igual a (1 – R 2). (Vea la última presentación del Capítulo 2. ) 10
LA PRUEBA F DE BONDAD DE AJUSTE El modelo de asistencia educativa será utilizado como ejemplo. Vamos a suponer que S depende de ASVABC, el puntaje de habilidad, de SM, y de SF, el mayor grado alcanzado por la madre y el padre de los encuentados, respectivamente. 11
LA PRUEBA F DE BONDAD DE AJUSTE La hipótesis nula para la prueba F de bondad de ajuste es que los tres coeficientes de las pendientes son iguales a cero. La hipótesis alternativa es que por lo menos uno de ellos no es diferente de cero. 12
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Aquí se presenta el resultado de la regresión al utlizar la Base de Datos 21. 13
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- En este ejemplo, k – 1, el número de grados de libertad, es igual a 536. 14
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- El numerador del estadístico F es la suma explicada de cuadrados dividida entre k – 1. En el resultado de Stata esto números están dados por el Modelo row. these numbers are given in the Model row. 15
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- El denominador es la suma del cuadrado de los residuales dividido entre el número de grados de libertad restante. 16
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Por lo tanto, el estadístico F es 104. 3. Todos los programas estadísitcos serios lo calculan por ti, como parte del diagnóstico en el resultado de una regresión. 17
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- El valor crítico de F(3, 536) no está dado en la tablas F, pero sabemos que debe ser menor que F(3, 500), que está dado. En el nivel de 0. 1%, esto es 5. 51. Por consiguiente, rechazamos facilmente H 0 con un nivel de 0. 1%. 18
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Este resultado podría haber sido anticipado porque ASVABC y SF tienen una t estadística altamente significativa. Por lo que sabíamos que b 2 y b 4 no diferentes de cero. 19
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Es inusual que el estadístico F no sea significativo si algunos de los estadíticos t lo son. Sin embargo, ello puede pasar en principio. Suponemos que corremos una regresión con 40 variables explicativas y ninguna es determinante en la variable dependiente. 20
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- A continuación, el estadístico F debe ser lo suficientemente menor para que H 0 no sea rechazada. Sin embargo, si estás desarrollando una prueba t en los coeficientes de la pendiente con un nivel de 5%, con un 5% de probabilidad de error Tipo I , en promedio 2 de 40 variables tendrán coeficientes significativos. 21
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Sin embargo, lo opuesto podría pasar. Vamos a suponer que tenemos un modelo de regresión múltiple que está perfectamente especificado y con una R 2 elevada. Deberíamos esperar tener un estadístico F significativo. 22
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- No obstante, si las variables explicativas están altamente correlacionadas y el modelo es sujeto de multicolinearidad, el error estandard de los coeficientes de la pendiente podrían ser tan grandes que ningúno de los estadísticos t sea significativo. 23
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- En esta situación deberíamos saber que nuestro modelo es bueno, pero no estamos en una posición para pinpoint las contribuciones hechas individualmente por las variables explicativas. 24
Ahora pasamos a la otra prueba F de bondad de ajuste: es una prueba del poder explicativo conjunto de un grupo de variables cuando son añadidas a un modelo de regresión. 25
Por ejemplo, en la especificación original, Y puede ser escrito como una función simple de X 2. En la segunda, añadimos X 3 y X 4. 26
La hipótesis nula para la prueba F es que X 3 y X 4 no pertenecen al modelo. La hipótesis alternativa es que al menos una pertenece, tal vez la dos. 27
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining Para esta prueba F y muchas más que nos econtraremos, es útil pensar en el estadístico F con una estructura similar a la de arriba. 28
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining The ‘improvement’ es la reducción de la suma de cuadrados cuando se hace el cambio, en este caso, cuando se agrega el grupo de nuevas variables. 29
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining El ‘costo’ es la reducción de los grados de libertad quedan después de hacer el cambio. En este caso es igual al número de nuevas variables añadidas, porque es el número de nuevo parámetros que son estimados. 30
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining (Recordemos que el número de grados de libertad en una ecuación de regresión es el número de observaciones menos el número de parametros estimados. En este ejemplo, caerá de n – 2 a n – 4 cuando X 3 y X 4 son añadidas. ) 31
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining Lo que permanece sin explicación es la suma del cuadrado de los residuales después de hacer el cambio. 32
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining Los ‘grados de libertad restantes’ es el número de grados de libertad restantes después de hacer el cambio. 33
. reg S ASVABC Source | SS df MS -------+---------------Model | 1081. 97059 1 1081. 97059 Residual | 2123. 01275 538 3. 94612035 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 1, 538) Prob > F R-squared Adj R-squared Root MSE = = = 540 274. 19 0. 0000 0. 3376 0. 3364 1. 9865 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 148084. 0089431 16. 56 0. 000. 1305165. 1656516 _cons | 6. 066225. 4672261 12. 98 0. 000 5. 148413 6. 984036 --------------------------------------- Ilustraremos la prueba con un ejemplo de asistencia educativa. Esta es al regresión de S con base en ASVABC utlizando la Base de 21. Haremos una nota sobre la suma de los residuales al cuadrado. 34
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Ahora agregamos el grado máximo completado por cada pariente. ¿La educación de los padres tiene un impacto significativo? Podemos observar que una prueba t mostrará que SF tiene un coeficiente altamente signficativo, pero de todos modos llevaremos a cabo la prueba. 35
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining La mejora en el ajuste al añadir las variables de los padres es la reducción en la suma del cuadrado de los residuales. 36
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining El costo son 2 grados de libertad debido a que se estimaron 2 parámetros adicionales. 37
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining Lo que permanece sin explicación es la suma de los residuales al cuadrado después de añadir SM y SF. 38
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining El número de grados de libertad que permanece es n – k, esto es, 540 – 4 = 536. 39
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining El estadístico F es 13. 16. 40
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining El valor crítico de F(2, 500) con un nivel de 0. 1% es 7. 00. El valor crítico de F(2, 536) debe ser menor, por lo que rechazamo H 0 y concluimos que las variables de la educación de los padres tienen gran poder explicativo. 41
Esta presentación concluirá al mostar que las pruebas t son equivalentes a las pruebas F marginales cuando el grupo adicional de variables consiste en una sola variable. 42
Suponemos que en el modelo original Y es una función de X 2 y X 3, y en el modelo revisado se agrega X 4. 43
La hipótesis nula para la prueba F del poder explicativo del grupo adicional de variables es que la nuevos coeficientes de las pendientes son iguales a cero. Por supuesto, sólo existe un nuevo coeficiente de la pendiente, b 4. 44
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining La prueba F tiene la estructura usual. Esto lo demostraremos con un modelo de asistencia educativa, donde S depende de ASVABC y SM en el modelo original y, también, de SF en el modelo revisado. 45
. reg S ASVABC SM Source | SS df MS -------+---------------Model | 1135. 67473 2 567. 837363 Residual | 2069. 30861 537 3. 85346109 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 2, 537) Prob > F R-squared Adj R-squared Root MSE = = = 540 147. 36 0. 0000 0. 3543 0. 3519 1. 963 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1328069. 0097389 13. 64 0. 000. 1136758. 151938 SM |. 1235071. 0330837 3. 73 0. 000. 0585178. 1884963 _cons | 5. 420733. 4930224 10. 99 0. 000 4. 452244 6. 389222 --------------------------------------- Esta es la regresión de S con base en ASVABC y SM. Haremos una nota de la suma de los residuales al cuadrado. 46
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Ahora, añadimos SF y, nuevamente, hacemos nota de la suma de los residuales al cuadrado. 47
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining La mejora al añadir SF es la reducción en la suma de los residuales al cuadrado. 48
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining El costo es sólo el grado de libertad que perdimos al estimar b 4. 49
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining Lo que permanece sin explicación es la suma de los residuales al cuadrado después de añadir SF. 50
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining El número de grados de libertad queda después de añadir SF es 540 – 4 = 536. 51
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining Por lo tanto, el estadítico F es 12. 10. 52
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining El valor crítico de F con un nivel de significancia de 0. 1% y con 500 grados de libertad es 10. 96. El valor crítico con 536 grados de libertad debe ser menor, por lo que rechazamos H 0 con un nivel de 0. 1%. 53
F(cost, d. f. remaining) = improvement remaining unexplained cost degrees of freedom remaining La hípótesis nula que estamos probando es exactamente igual que la prueba t de “dos colas” sobre el coeficiente SF. 54
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Vamos a desarrollar la prueba t. El estadístico t es 3. 48. 55
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- El valor crítico con un nivel de 0. 1% y 500 grados de libertad es 3. 31. El valor crítico con 536 grados de libertad debe ser menor. Por lo que rechazamos H 0 nuevamente. 56
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Puede demostrase que el estadístico F para la prueba F del poder explicativo de un ‘grupo’ de variables debe ser igual al cuadrado del estádístico t para esa variable. (La diferencia en el último dígito es debido al error de redondeo. ) 57
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- También se puede ver que el valor crítico de F debe ser igual al cuadrado de los valores críticos de t. (Los valores críticos mostrados corresponden a 500 grados de libertad, pero esto también debe ser cierto para 536 grados de libertad. ) 58
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Por lo tanto, las conclusiones de las dos pruebas deben coincidir. 59
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Estos resultados significan que la prueba t del coeficiente de una variable es una prueba de su poder explicativo marginal, después que todas las otra variables fueron incluidas en la ecuación. 60
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Si al variable está correlacionada con una o más variables, su poder explicativo marginal puede ser muy bajo, incluso si pertenece originalmente al modelo. 61
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Si todas las variables están correlacionadas, es posible que todas tenga un poder explicativo muy bajo y que para ninguan de ellas la prueba t sea significativa, incluso si la prueba F para el poder explicativo conjunto sea altamente significativo. 62
. reg S ASVABC SM SF Source | SS df MS -------+---------------Model | 1181. 36981 3 393. 789935 Residual | 2023. 61353 536 3. 77539837 -------+---------------Total | 3204. 98333 539 5. 94616574 Number of obs F( 3, 536) Prob > F R-squared Adj R-squared Root MSE = = = 540 104. 30 0. 0000 0. 3686 0. 3651 1. 943 ---------------------------------------S | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------+--------------------------------ASVABC |. 1257087. 0098533 12. 76 0. 000. 1063528. 1450646 SM |. 0492424. 0390901 1. 26 0. 208 -. 027546. 1260309 SF |. 1076825. 0309522 3. 48 0. 001. 04688. 1684851 _cons | 5. 370631. 4882155 11. 00 0. 000 4. 41158 6. 329681 --------------------------------------- Si este es el caso, se dice que el modelo sufre del problema de multicolinearidad discutido en capítulos previos. 63
Copyright Christopher Dougherty 1999– 2006. This slideshow may be freely copied for personal use. Traducido por Diego Forcada Gallardo 22. 08. 06
- Slides: 64