UJI ASUMSI KLASIK Tujuan Pengajaran Mengerti apa yang

  • Slides: 83
Download presentation
UJI ASUMSI KLASIK

UJI ASUMSI KLASIK

Tujuan Pengajaran: • Mengerti apa yang dimaksud dengan uji asumsi klasik • Mengerti item-item

Tujuan Pengajaran: • Mengerti apa yang dimaksud dengan uji asumsi klasik • Mengerti item-item asumsi • Menjelaskan maksud item-item asumsi • Menyebutkan nama-nama asumsi yang harus dipenuhi • Mengerti apa yang dimaksud dengan autokorelasi

 • Mengerti apa yang dimaksud dengan Multikolinearitas • Mengerti apa yang dimaksud dengan

• Mengerti apa yang dimaksud dengan Multikolinearitas • Mengerti apa yang dimaksud dengan Heteroskedastisitas • Mengerti apa yang dimaksud dengan Normalitas • Menjelaskan timbulnya masalah dalam uji asumsi klasik

 • Menjelaskan dampak dari autokorelasi, heteroskedastisitas, multikolinearitas, normalitas • Menyebutkan alat deteksi dari

• Menjelaskan dampak dari autokorelasi, heteroskedastisitas, multikolinearitas, normalitas • Menyebutkan alat deteksi dari masalah -masalah tersebut

 • Menggunakan sebagian alat-alat deteksi • Menjelaskan keterkaitan asumsi • Menjelaskan konsekuensi-konsekuensi dari

• Menggunakan sebagian alat-alat deteksi • Menjelaskan keterkaitan asumsi • Menjelaskan konsekuensi-konsekuensi dari Asumsi

asumsi-asumsi klasik • Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang

asumsi-asumsi klasik • Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE: (Best, Linear, Unbiased, Estimator. ) •

 Gauss-Markov Theorem. • BLUE: (Best, Linear, Unbiased, Estimator. ) • Adalah asumsi yang

Gauss-Markov Theorem. • BLUE: (Best, Linear, Unbiased, Estimator. ) • Adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem.

Best dimaksudkan sebagai terbaik • Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan

Best dimaksudkan sebagai terbaik • Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil.

Linear • Linear dalam model artinya model yang digunakan dalam analisis regresi telah sesuai

Linear • Linear dalam model artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. • Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel

 • Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari

• Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.

10 asumsi yang menjadi syarat penerapan OLS, • Gujarati (1995): • Asumsi 1: Linear

10 asumsi yang menjadi syarat penerapan OLS, • Gujarati (1995): • Asumsi 1: Linear regression Model. • Model regresi merupakan hubungan linear dalam parameter. • Y = a + b. X +e •

 • Untuk model regresi: • Y = a + b. X + c.

• Untuk model regresi: • Y = a + b. X + c. X 2 + e • Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.

 • Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed

• Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). • Tepatnya bahwa nilai X adalah nonstochastic (tidak random).

 • Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).

• Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).

 • Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yangsama sepanjang observasi

• Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yangsama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas

 • Asumsi 5: (uji autokorelasi)Tidak ada otokorelasi antara variabel e pada setiap nilai

• Asumsi 5: (uji autokorelasi)Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).

 • Asumsi 6: there no correlation between u dan variabel bebas) Variabel X

• Asumsi 6: there no correlation between u dan variabel bebas) Variabel X dan disturbance e tidak berkorelasi.

 • Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari

• Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang • diestimasi.

 • Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama

• Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.

 • Asumsi 9: Model regresi secara benar telah terspesifikasi. • Artinya, tidak ada

• Asumsi 9: Model regresi secara benar telah terspesifikasi. • Artinya, tidak ada spesifikasi yang bias, karena semuanya telahterekomendasi atau sesuai • dengan teori.

 • Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel

• Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi. •

 • meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi

• meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya.

 • Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji

• Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti: • uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.

 • Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang

• Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas.

A. Uji Autokorelasi

A. Uji Autokorelasi

A. 1. Pengertian autokorelasi • Autokorelasi adalah keadaan dimana variabel gangguan padaperiode tertentu berkorelasi

A. 1. Pengertian autokorelasi • Autokorelasi adalah keadaan dimana variabel gangguan padaperiode tertentu berkorelasi dengan variabel gangguan pada periode lain.

 • Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan

• Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan.

A. 2. Sebab-sebab Autokorelasi • • 1. Kesalahan dalam pembentukan model, • 2. Tidak

A. 2. Sebab-sebab Autokorelasi • • 1. Kesalahan dalam pembentukan model, • 2. Tidak memasukkan variabel yangpenting. • 3. Manipulasi data • 4. Menggunakan data yang tidak empiris

A. 3. Akibat Autokorelasi • Akibatnya adalah nilai t hitung akan menjadi bias pula,

A. 3. Akibat Autokorelasi • Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading). • ( Karena adanya masalah korelasi dapat menimbulkan adanya bias pada hasil regresi. )

1. Uji Durbin-Watson (DW Test).

1. Uji Durbin-Watson (DW Test).

 dapat pula ditulis dalam rumus sebagai berikut:

dapat pula ditulis dalam rumus sebagai berikut:

DW test ini terdapat beberapa asumsi penting • • 1. Terdapat intercept dalam model

DW test ini terdapat beberapa asumsi penting • • 1. Terdapat intercept dalam model regresi. • 2. variabel penjelasnya tidak random (nonstochastics).

3. Tidak ada unsur lag dari variabel dependen di dalam model. 4. Tidak ada

3. Tidak ada unsur lag dari variabel dependen di dalam model. 4. Tidak ada data yang hilang. 5. υ t = ρυ t − 1 + ε t

 Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai dari menentukan

Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai dari menentukan hipotesis. • (H◦)erdapat autokorelasi positif, atau, terdapat autokorelasi negatif. •

 • Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW test, yang

• Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya menentukan lokasi dimana nilai DW berada.

Jelasnya adalah sebagai berikut: • DW < d. L = terdapat atokorelasi positif •

Jelasnya adalah sebagai berikut: • DW < d. L = terdapat atokorelasi positif • d. L< DW <d. U = tidak dapat disimpulkan • (inconclusive) • d. U > DW >4 -d. U = tidak terdapat autokorelasi • 4 -d. U < DW <4 -d. L = tidak dapat disimpulkan • (inconclusive) • DW > 4 -d. L = terdapat autokorelasi negatif

 • Dimana: • DW = Nilai Durbin-Watson d statistik • d. U =

• Dimana: • DW = Nilai Durbin-Watson d statistik • d. U = Nilai batas (didapat dari tabel) • d. L = Nilai batas bawah (didapat dari tabel) •

 • Ketentuan-ketentuan daerah hipotesis pengujian DW dapat diwujudkan dalam bentuk gambar sebagai berikut:

• Ketentuan-ketentuan daerah hipotesis pengujian DW dapat diwujudkan dalam bentuk gambar sebagai berikut:

Gambar 3. 3. : Daerah Uji Durbin Watson

Gambar 3. 3. : Daerah Uji Durbin Watson

 • Bantuan dengan spss: 109 -110

• Bantuan dengan spss: 109 -110

 • • • (α)=5%, N = 22 Prediktor : 2 batas (U) =1,

• • • (α)=5%, N = 22 Prediktor : 2 batas (U) =1, 54 sedang batas bawah (L) = 1, 15. DW = 0, 883

 • 0, 883 yang berarti lebih kecil dari nilai batas bawah, maka koefisien

• 0, 883 yang berarti lebih kecil dari nilai batas bawah, maka koefisien autokorelasi lebih kecil dari nol. • Dengan demikian dapat disimpulkan bahwa hasil regresi tersebut belum terbebas dari masalah autokorelasi positif.

 • Dengan katalain, Hipotesis nol (H◦) yang menyatakan tidak terdapat masalah autokorelasi dapat

• Dengan katalain, Hipotesis nol (H◦) yang menyatakan tidak terdapat masalah autokorelasi dapat ditolak, • sedang hipotesis nol (H◦) yang menyatakan terdapat masalah autokorelasi dapat diterima

Uraian di atas dapat pula dijelaskan dalam bentuk gambar sbb

Uraian di atas dapat pula dijelaskan dalam bentuk gambar sbb

B. Uji Normalitas • Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu

B. Uji Normalitas • Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.

Beberapa cara untuk melakukan uji normalitas, antara lain: • 1. tendesi sentral (mean –

Beberapa cara untuk melakukan uji normalitas, antara lain: • 1. tendesi sentral (mean – median = 0) • 2. Menggunakan formula Jarque Bera (JB test),

formula Jarque Bera (JB test),

formula Jarque Bera (JB test),

 • dimana: • S = Skewness (kemencengan) distribusi data • K= Kurtosis (keruncingan)

• dimana: • S = Skewness (kemencengan) distribusi data • K= Kurtosis (keruncingan)

Skewness

Skewness

Kurtosis

Kurtosis

 • Bantuan SPSS : Hal 115 - 116

• Bantuan SPSS : Hal 115 - 116

 • • 3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi

• • 3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana.

Untuk menentukan posisi normal dari sebaran data, langkahawal yang dilakukan adalah menghitung standar deviasi.

Untuk menentukan posisi normal dari sebaran data, langkahawal yang dilakukan adalah menghitung standar deviasi.

 • SD 1 = 68 % • SD 2 = 95% • SD

• SD 1 = 68 % • SD 2 = 95% • SD 3 = 99, 7 %

Penentuan area ini penting, karena sebaran data yang dikatakan normal apabila tersebar sebagai berikut:

Penentuan area ini penting, karena sebaran data yang dikatakan normal apabila tersebar sebagai berikut: • Sebanyak 68% dari observasi berada pada area SD 1 • Sebanyak 95% dari sisanya berada pada area • SD 2 • Sebanyak 99, 7% dari sisanya berada pada area SD 3

sebaran data yang dikatakan normal

sebaran data yang dikatakan normal

 • Apabila data tidak normal, maka • diperlukan upaya untuk mengatasi seperti: memotong

• Apabila data tidak normal, maka • diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.

 • Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika

• Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung • menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan normal jika datanya simetris.

Lihat gambar berikut:

Lihat gambar berikut:

 • Ilustrasi: • Mean : 46 kg • Sd = 5 kg •

• Ilustrasi: • Mean : 46 kg • Sd = 5 kg • 68% x 30 = 10: (41 -46) kg » 10 : (46 -52) kg » 4 (36 – 41 ) kg » 5 (51 – 56 ) kg » 1 (> 36) Kg)

C. Uji Heteroskedastisitas • • C. 1. Pengertian Heteroskedastisitas • Model akan menghadapi masalah

C. Uji Heteroskedastisitas • • C. 1. Pengertian Heteroskedastisitas • Model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan (e) atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya

 • rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan

• rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas

C. 2. Konsekuensi Heteroskedastisitas 1. Sb menjadi bias 2. nilai b bukan nilai yang

C. 2. Konsekuensi Heteroskedastisitas 1. Sb menjadi bias 2. nilai b bukan nilai yang terbaik. 3. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.

 • Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai

• Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.

C. 3. Pendeteksian Heteroskedastisitas • Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai

C. 3. Pendeteksian Heteroskedastisitas • Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier • Membandingkan sebaran data pada scatter plot

menggunakan uji Arch, • e ² = a + bỶ ² + u. •

menggunakan uji Arch, • e ² = a + bỶ ² + u. • Cari R ² • Kalikan R ² dengan n (sampel)/ R ² x n.

 • Jika R 2 x N lebih besar dari chi-square (χ2) tabel, maka

• Jika R 2 x N lebih besar dari chi-square (χ2) tabel, maka standar error mengalami heteroskedastisitas. • Sebaliknya, jika R 2 x N lebih kecil dari chi-square (χ2) tabel, maka standar error telah bebas dari masalah • heteroskedastisitas, atau telah homoskedastis.

 • Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data

• Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series • Karena dalam data cross section menunjukkan obyek yang berbeda dan • waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu.

 • Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai

• Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama.

D. Uji Multikolinieritas • D. 1. Pengertian Multikolinearitas • Multikolinearitas: Multikolinieritas adalah suatu keadaan

D. Uji Multikolinieritas • D. 1. Pengertian Multikolinearitas • Multikolinearitas: Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.

Sebagai gambaran penjelas,

Sebagai gambaran penjelas,

D. 2. Konsekuensi Multikolinearitas • Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai

D. 2. Konsekuensi Multikolinearitas • Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t •

D. 3. Pendeteksian Multikolinearitas • Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis

D. 3. Pendeteksian Multikolinearitas • Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression,

 • pendapat Gujarati (1995: 335) yang mengatakan bahwa bila korelasi antara dua variabel

• pendapat Gujarati (1995: 335) yang mengatakan bahwa bila korelasi antara dua variabel bebas melebihi 0, 8 maka multikolinearitas menjadi masalah yang serius.

 • Gujarati juga menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar

• Gujarati juga menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar dibanding korelasi variabel terikat dengan masing-masing variabel penjelas, maka dapat dikatakan tidak terdapat masalah yang serius.

 • Dengan demikian, dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0,

• Dengan demikian, dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0, 8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas.

 • Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas

• Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan smempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.