Menurut pendapat pendapat
Algifari (2000:83) mengatakan: ”model regresi yang diperoleh dari metode
kuadrat terkecil biasa (Odinary Least Square/OLS) merupakan model regresi yang
menghasilkan estimator linear yang tidak bias yang terbaik (Best Linear Unbias
Estimator/BLUE)” Untuk mendapatkan nilai pemeriksa yang efisien dan tidak bias
atau BLUE dari satu persamaan regresi berganda dengan metode kuadrat terkecil
(least square), maka perlu dilakukan pengujian untuk mengetahui model
regresi yang dihasilkan memenuhi persyaratan asumsi klasik. Biasanya uji
ini dilakukan pada analisis dengan variabel yang jumlahnya lebih dari dua.
Sedikitnya ada 5 uji asumsi yang
harus dilakukan terhadap model regresi tersebut yaitu:
1. Uji
Normalitas
2. Uji
Autokorelasi
3. Uji
Multikolinearitas
4. Uji
Heterokedasitas
5. Uji
Linearitas
1. Uji
Normalitas
Menguji apakah dalam sebuah model
regresi, variabel dependent, variabel independent atau keduanya mempunyai
distribusi normal ataukah tidak. Model regresi yang baik adalah distribusi data
normal atau mendekati normal.
Sebagai dasar bahwa uji t dan uji F
mengasumsikan bahwa nilai residual mengikuti distribusi normal. Jika asumsi ini
dilanggar maka model regresi dianggap tidak valid dengan jumlah sampel yang
ada. Ada dua cara yang biasa digunakan untuk menguji normalitas model regresi
tersebut yaitu dengan analisis grafik (normal P-P plot) dan analisis statistik
(analisis Z skor skewness dan kurtosis) one sample Kolmogorov-Smirnov Test.
Pengertian normal secara sederhana
dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan
pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori
sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau
sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka
kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang
normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan
kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median
relatif dekat.
Uji
normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi
Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Rasio
skewness dan rasio kutosis dapat dijadikan petunjuk apakah suatu data
berdistribusi normal atau tidak. Rasio skewness adalah nilai skewness dibagi
dengan nilai standar error skewness; sedang rasio kurtosis adalah nilai
kurtosis dibagi dengan standar error kurtosis. Sebagai pedoman bila rasio
kurtosis dan skewness berada antara -2 hingga +2, maka distribusi data adalah
normal.(Santoso,2000;53).
Tidak ada metode yang paling baik
atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering
menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan
uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak
ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian
dengan metode grafik.
Jika residual tidak normal tetapi
dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar
0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi
normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa
langkah yaitu: melakukan transformasi data, melakukan trimming data outliers
atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk
Logaritma natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari
bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah
atau menyebar ke samping kanan dan kiri.
2. Uji
Autokorelasi
Ada beberapa cara yang dapat
digunakan untuk mendeteksi ada tidaknya autokorelasi. Pertama, uji Durbin Witson (DW test). Uji hanya digunakan untuk autokorelasi
tingkat satu (first order autocorrelation) dan mensyratkan adanya intercept
dalam model regresi dan tidak ada variabel lag di antara variabel penjelas.
Hipotesis yang diuji adalah:
Ho
: p = 0 (baca: hipotesis nolnya adalah tidak ada autokorelsi)
Ho
: p ≠ 0 (baca: hipotesis alternatifnya adalah ada autokorelasi)
Keputusan ada atau tidaknya autokorelasi adalah:
Bila DW berada diantara
DU
sampai dengan 4-DU
maka koefisien autokorelasi sama dengan nol. Artinya, tidak ada autokorelasi
Bila nilai DW lebih
kecil daripada DL,
koefisien autokorelasi lebih besar daripada nol. Artinya ada auokorelasi
positif.
Bila nilai DW terletak
di antara DL
dan DU,
maka tidak dapat disimpulkan.
Bila nilai DW lebih
besar daripada 4-DL,
koefisien autokorelasi lebih besar daripada nol. Artinya ada autokorelasi
negatif.
Bila nilai DW terletak
di antara 4-DU
dan 4-DL,
maka tidak dapat disimpulkan.
3. Uji
Multikolinearitas
Uji multikolinearitas bertujuan
untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel
bebas (independent variable). Model regresi yang baik seharusnya tidak terjadi
korelasi di antara variabel bebas, karena jika hal tersebut terjadi maka
variabel-variabel tersebut tidak ortogonal atau terjadi kemiripan. Variabel
ortogonal adalah variabel bebas yang nilai korelasi antar sesama variabel bebas
bernilai nol. Uji ini untuk menghindari kebiasan dalam proses pengambilan
keputusan mengenai pengaruh parsial masing-masing variabel independen terhadap
variabel dependen. Untuk mendeteksi apakah terjadi problem multikol dapat
melihat nilai tolerance dan lawannya variace inflation factor (VIF). Uji Multikolinearitas
dilakukan dengan melihat nilai tolerance dan variance inflation factor (VIF)
dari hasil analisis dengan menggunakan SPSS. Apabila nilai tolerance value
lebih tinggi daripada 0,10 atau VIF lebih kecil daripada 10 maka dapat
disimpulkan tidak terjadi multikolinearitas (Santoso. 2002 : 206).
Uji multikolinearitas adalah untuk
melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas
dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di
antara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap
variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi
dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan
variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model
tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan
kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara
motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan
dengan kepuasan kerja.
Beberapa alternatif cara untuk mengatasi masalah
multikolinearitas adalah sebagai berikut:
- Mengganti
atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
- Menambah
jumlah observasi.
- Mentransformasikan
data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau
bentuk first difference delta.
- Dalam
tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang
sekali digunakan.
4. Uji
Heteroskadstisitas
Pada uji heteroskedastisitas, seperti
halnya uji Normalitas, cara yang sering digunakan dalam menentukan apakah suatu
model terbebas dari masalah heteroskedastisitas atau tidak hanya dengan melihat
pada Scatter Plot dan dilihat apakah residual memiliki pola tertentu atau
tidak. Cara ini menjadi fatal karena pengambilan keputusan apakah suatu model
terbebas dari masalah heterokedastisitas atau tidak hanya berpatok pada
pengamatan gambar saja tidak dapat dipertanggungjawabkan kebenarannya. Banyak
metoda statistik yang dapat digunakan untuk menentukan apakah suatu model
terbebas dari masalah heteroskedastisitas atau tidak, seperti misalnya uji
White, Uji Park, Uji Glejser, dan lain-lain.
Salah satu uji yang dapat
diaplikasikan dalam SPSS adalah uji Glejser. Uji Glejser secara umum
dinotasikan sebagai berikut:
= b1
+ b2
X2
+ V
Dimana:
= nilai absolut dari residual yang
dihasilkan dari regresi model
X2 =
Variabel penjelas
Bila variabel penjelas secara statistik signifikan memengaruhi
residual maka dapat dipastikan dengan model ini memiliki masalah
heteroskedastisitas.
5. Uji Linearitas
Uji ini digunakan untuk melihat
apakah spesifikasi model yang digunakan yaitu studi empiris linier, kuadrat,
atau kubik. Ada tiga uji yang bisa dilakukan untuk mendeteksi yaitu uji Durbin
Watson, uji Ramsey, dan uji Langrange Multiplier.
Uji linearitas dipergunakan untuk
melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji
ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk
berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan
variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori
bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan
regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua
variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak
dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat
linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah
sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai
atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan
uji Durbin-Watson