EKONOMETRIKA BAB V








BAB V
UJI ASUMSI KLASIK

UJI ASUMSI KLASIK


Di muka telah disinggung, baik dalam regresi linier sederhana maupun dalam regresi linier berganda, bahwadalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka


nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased,Estimator.


Asumsi-asumsi seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS,18 yaitu:


 


Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.


 


Y = a + bX +e


 


Untuk model regresi Y = a + bX + cX2 + e


Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.


 


Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).


 


Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.


Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas


Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).


Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.


Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.


Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.


Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.


Asumsi 10. Tidak ada multikolinearitas antara variable penjelas. Jelasnya kolinear antara variable penjelas tidak boleh sempurna atau tinggi.


Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas.


Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).


A. Uji Autokorelasi


A.1. Pengertian autokorelasi


Dalam asumsi klasik telah dijelaskan bahwa pada model OLS harus telah terbebas dari masalah autokorelasi atau serial korelasi. Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat data time series ini sendiri lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada data cross section hal itu kecil kemungkinan terjadi.


A.2. Sebab-sebab Autokorelasi


Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, namun dalam pembahasan ini hanya mengungkapkan beberapa faktor saja antara lain:


1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.


2. Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.


3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia.


4. Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.


A.3. Akibat Autokorelasi


Uraian-uraian di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari autokorelasi yang timbul. Pertanyaan seperti ini tentu saja merupakan sesuatu yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan mengeliminasinya.


A.4. Pengujian Autokorelasi


Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:


1. Uji Durbin-Watson (DW Test).


Uji Durbin-Watson yang secara popular digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-Watson d statistic.


2. Menggunakan metode LaGrange Multiplier (LM).


LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variable tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variable dependen. Dengan demikian model dalam LM menjadi sebagai berikut:


Y = β0 + β1X1+ β2 X2 + β3 Yt-1+ β4 Yt-2 + ε


Variabel Yt-1 merupakan variabel lag 1 dari Y.


Variabel Yt-2 merupakan variabel lag 2 dari Y.


 


B. Uji Normalitas


Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Sangat beralasan


kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.


 


C. Uji Heteroskedastisitas


C.1. Pengertian Heteroskedastisitas


Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi linier, adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112).


C.2. Konsekuensi Heteroskedastisitas


Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias. Selain itu, adanya kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.


C.3. Pendeteksian Heteroskedastisitas


Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18)21.


Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Dengan menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil pengujian.


 


 


D. Uji Multikolinieritas


D.1. Pengertian Multikolinearitas


Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hamper tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.


D.2. Konsekuensi Multikolinearitas


Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).


D.3. Pendeteksian Multikolinearitas


Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF). Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan.


 


2. Cobalah untuk menyimpulkan maksud dari uraian bab ini!


 


Uji asumsi untuk regresi dapat dikelompokkan atas :


1. Uji asumsi dasar regresi


·   Uji normalitas


·   Uji linearitas


·   Uji homogenitas


2. Uji asumsi klasik regresi 


·   Uji multikolinearitas 


·   Uji heteroskedastisitas


·   Uji autokorelasi


·   Uji normalitas


Uji Normalitas (Test of normality) digunakan untuk mengetahui apakah populasi data berdistribusi normal atau tidak. Biasanya digunakan untuk data berskala ordinal, interval atau pun rasio. Uji yang biasa digunakan adalah uji Liliefors melalui nilai pada Kolmogorov Smirnov.


Uji Linearitas (Test of Linearity) digunakan untuk mengetahui apakah dua variabel mempunyai hubungan yang linear atau tidak secara signifikan. Pada SPSS diperoleh melalui ANOVA dengan memilih icon "Test for Linearity".


Uji Homogenitas (Test of Homogenity) digunakan untuk mengetahui apakah beberapa varian populasi data adalah sama atau tidak. Pada SPSS diperoleh melalui ANOVA dengan memilih Test of Homogenity, dan hasilnya bisa dilhat dari nilai Levene Test dimana semakin kecil nilainya maka semakin besar homogenitasnya.


Uji Multikolinearitas (Test of Multicolinearity) digunakan untuk mengetahui ada atau tidaknya hubungan linear antar variabel independen dalam model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih icon Collinearity diagnostics, dan hasilnya ada pada kolom VIF yang memiliki nilai kurang dari 5 maka tidak terdapat multikolinearitas.


Uji Heteroskedastisitas (Test of Heteroskedasticity) digunakan untuk mengetahui ada atau tidaknya ketidaksamaan varian dari residual pada model regresi. Pada SPSS diperoleh melalui Bivariate Correlation.


Uji Autokorelasi (Test of Autocorrelation) digunakan untuk mengetahui ada atau tidaknya korelasi antara satu residual pengamatan dengan residual pengamatan lainnya pada model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih icon Durbin-Watson.


 


 


Dalam regresi linear ada empat asumsi yang harus dipenuhi, yaitu :


  1. Masing-masing variabel bebas adalah linear dan tidak berkorelasi.

  2. Random error memiliki variansi konstan.

  3. Random error saling bebas (independen).

  4. Random error memiliki distribusi normal dengan mean 0 dan standar deviasi tetap.


Masing-masing asumsi dapat diuji dengan uji asumsi klasik di atas, yaitu 


  1. Asumsi 1 : Uji normalitas

  2. Asumsi 2 : uji heteroskedastisitas

  3. Asumsi 3 : Uji autokorelasi

  4. Asumsi 4 : Uji multikolinearitas


3. Jawablah pertanyaan-pertanyaan di bawah ini:


a. Coba jelaskan apa yang dimaksud dengan asumsi klasik!


analisis yang dilakukan untuk menilai apakah di dalam sebuah model regresi linear Ordinary Least Square (OLS) terdapat masalah-masalah asumsi klasik.


b. Sebutkan apa saja asumsi-asumsi yang ditetapkan!


Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.


Y = a + bX +e


Untuk model regresi Y = a + bX + cX2 + e


Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.


Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).


Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.


Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas


Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).


Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.


Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.


Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.


Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.


Asumsi 10. Tidak ada multikolinearitas antara variable penjelas. Jelasnya kolinear antara variable penjelas tidak boleh sempurna atau tinggi.


c. Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!


Karena penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.


d. Jelaskan apa yang dimaksud dengan autokorelasi!


Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain.


e. Jelaskan kenapa autokorelasi timbul!


autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).


f. Bagaimana cara mendeteksi masalah autokorelasi?


apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya.


g. Apa konsekuensi dari adanya masalah autokorelasi dalam model?


Meskipun ada autokorelasi, nilai parameter estimator (b 1 , b 2 ,…,b n ) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb 1 , Sb 2 ) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).


h. Jelaskan apa yang dimaksud dengan heteroskedastisitas!


residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas.


i. Jelaskan kenapa heteroskedastisitas timbul!


Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya


j. Bagaimana cara mendeteksi masalah heteroskedastisitas?


Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier


k. Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?


Munculnya masalah heteroskedastisitas yang mengakibatkan nilai S b menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan S b .


l. Jelaskan apa yang dimaksud dengan multikolinearitas!


Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.


m. Jelaskan kenapa multikolinearitas timbul!


Karena tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna.


n. Bagaimana cara mendeteksi masalah multikolinearitas?


Cara  mendeteksi  ada  tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel  dengan  menggunakan Spearman’s  Rho Correlation dapat dilakukan apabila data dengan skala ordinal


o. Apa konsekuensi dari adanya masalah multikolinearitas dalam model?


jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan  hasilnya, akan menghasilkan bilangan pembagian,b1 = 0/0 , sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.


p. Jelaskan apa yang dimaksud dengan normalitas!


sebuah uji yang dilakukan dengan tujuan untuk menilai sebaran data pada sebuah kelompok data atau variabel, apakah sebaran data tersebut berdistribusi normal ataukah tidak.


q. Jelaskan kenapa normalitas timbul!


Karena data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.


r. Bagaimana cara mendeteksi masalah normalitas?


Mendeteksi masalah normalitas dengan menggunakan metode numberik yang membandingkan nilai statistic yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.


 


s. Apa konsekuensi dari adanya masalah normalitas dalam model?


Konsekuensi dari adanya masalah normalitas adalah pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.


 


t. Bagaimana cara menangani jika data ternyata tidak normal?


Mengidentifikasi dan, jika mungkin, menentukan alasan data tidak normal dan mengatasinya atau Gunakan alat yang tidak memerlukan asumsi normalitas

 

https://uniba.ac.id 

http://supawi-pawenang.blogspot.co.id/ 

Supawi Pawenang, 2017, Modul Ekonometrika, Fakultas Ekonomi, UNIBA Surakarta

 

Komentar

Postingan populer dari blog ini

Analisis Teknik Optimasi dan Peralatan Manajemen Baru Untuk Optimasi

TEKNIK OPTIMASI