WELCOME

Jadikan Hidup Anda Lebih Baik Dan Bermanfaat Bagi Orang Lain

Kamis, 16 Mei 2013

UJI BLUE (BEST LINEAR UNBIAS ESTIMATOR)


Menurut pendapat pendapat Algifari (2000:83) mengatakan: ”model regresi yang diperoleh dari metode kuadrat terkecil biasa (Odinary Least Square/OLS) merupakan model regresi yang menghasilkan estimator linear yang tidak bias yang terbaik (Best Linear Unbias Estimator/BLUE)” Untuk mendapatkan nilai pemeriksa yang efisien dan tidak bias atau BLUE dari satu persamaan regresi berganda dengan metode kuadrat terkecil (least square), maka perlu dilakukan pengujian untuk  mengetahui model regresi yang dihasilkan memenuhi persyaratan  asumsi klasik. Biasanya uji ini dilakukan pada analisis dengan variabel yang jumlahnya lebih dari dua.
Sedikitnya ada 5 uji asumsi yang harus dilakukan terhadap model regresi tersebut yaitu:
1.      Uji Normalitas
2.      Uji Autokorelasi
3.      Uji Multikolinearitas
4.      Uji Heterokedasitas
5.      Uji Linearitas

1. Uji Normalitas
Menguji apakah dalam sebuah model regresi, variabel dependent, variabel independent atau keduanya mempunyai distribusi normal ataukah tidak. Model regresi yang baik adalah distribusi data normal atau mendekati normal.
Sebagai dasar bahwa uji t dan uji F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Jika asumsi ini dilanggar maka model regresi dianggap tidak valid dengan jumlah sampel yang ada. Ada dua cara yang biasa digunakan untuk menguji normalitas model regresi tersebut yaitu dengan analisis grafik (normal P-P plot) dan analisis statistik (analisis Z skor skewness dan kurtosis) one sample Kolmogorov-Smirnov Test.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Rasio skewness dan rasio kutosis dapat dijadikan petunjuk apakah suatu data berdistribusi normal atau tidak. Rasio skewness adalah nilai skewness dibagi dengan nilai standar error skewness; sedang rasio kurtosis adalah nilai kurtosis dibagi dengan standar error kurtosis. Sebagai pedoman bila rasio kurtosis dan skewness berada antara -2 hingga +2, maka distribusi data adalah normal.(Santoso,2000;53).
Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

2. Uji Autokorelasi
Ada beberapa cara yang dapat digunakan untuk mendeteksi ada tidaknya autokorelasi.     Pertama, uji Durbin Witson (DW test). Uji hanya digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan mensyratkan adanya intercept dalam model regresi dan tidak ada variabel lag di antara variabel penjelas. Hipotesis yang diuji adalah:
Ho : p = 0 (baca: hipotesis nolnya adalah tidak ada autokorelsi)
Ho : p ≠ 0 (baca: hipotesis alternatifnya adalah ada autokorelasi)

Keputusan ada atau tidaknya autokorelasi adalah:
*      Bila DW berada diantara DU sampai dengan 4-DU maka koefisien autokorelasi sama dengan nol. Artinya, tidak ada autokorelasi
*      Bila nilai DW lebih kecil daripada DL, koefisien autokorelasi lebih besar daripada nol. Artinya ada auokorelasi positif.
*      Bila nilai DW terletak di antara DL dan DU, maka tidak dapat disimpulkan.
*      Bila nilai DW lebih besar daripada 4-DL, koefisien autokorelasi lebih besar daripada nol. Artinya ada autokorelasi negatif.
*      Bila nilai DW terletak di antara 4-DU dan 4-DL, maka tidak dapat disimpulkan.

3. Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independent variable). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel bebas, karena jika hal tersebut terjadi maka variabel-variabel tersebut tidak ortogonal atau terjadi kemiripan. Variabel ortogonal adalah variabel bebas yang nilai korelasi antar sesama variabel bebas bernilai nol. Uji ini untuk menghindari kebiasan dalam proses pengambilan keputusan mengenai pengaruh parsial masing-masing variabel independen terhadap variabel dependen. Untuk mendeteksi apakah terjadi problem multikol dapat melihat nilai tolerance dan lawannya variace inflation factor (VIF). Uji Multikolinearitas dilakukan dengan melihat nilai tolerance dan variance inflation factor (VIF) dari hasil analisis dengan menggunakan SPSS. Apabila nilai tolerance value lebih tinggi daripada 0,10 atau VIF lebih kecil daripada 10 maka dapat disimpulkan tidak terjadi multikolinearitas (Santoso. 2002 : 206).
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
  • Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
  • Menambah jumlah observasi.
  • Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta.
  • Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali digunakan.

4. Uji Heteroskadstisitas
Pada uji heteroskedastisitas, seperti halnya uji Normalitas, cara yang sering digunakan dalam menentukan apakah suatu model terbebas dari masalah heteroskedastisitas atau tidak hanya dengan melihat pada Scatter Plot dan dilihat apakah residual memiliki pola tertentu atau tidak. Cara ini menjadi fatal karena pengambilan keputusan apakah suatu model terbebas dari masalah heterokedastisitas atau tidak hanya berpatok pada pengamatan gambar saja tidak dapat dipertanggungjawabkan kebenarannya. Banyak metoda statistik yang dapat digunakan untuk menentukan apakah suatu model terbebas dari masalah heteroskedastisitas atau tidak, seperti misalnya uji White, Uji Park, Uji Glejser, dan lain-lain.
Salah satu uji yang dapat diaplikasikan dalam SPSS adalah uji Glejser. Uji Glejser secara umum dinotasikan sebagai berikut:
 = b1 + b2 X2 + V
Dimana:
                    = nilai absolut dari residual yang dihasilkan dari regresi model
    X2           = Variabel penjelas
Bila variabel penjelas secara statistik signifikan memengaruhi residual maka dapat dipastikan dengan model ini memiliki masalah heteroskedastisitas.


5. Uji Linearitas
Uji ini digunakan untuk melihat apakah spesifikasi model yang digunakan yaitu studi empiris linier, kuadrat, atau kubik. Ada tiga uji yang bisa dilakukan untuk mendeteksi yaitu uji Durbin Watson, uji Ramsey, dan uji Langrange Multiplier.
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson