BAB I PENDAHULUAN
1.1 Latar Belakang Pengujian asumsi klasik diperlukan untuk mengetahui apakah hasil estimasi
regresi
yang
dilakukan
benar-benar
dai
adanya
gejala
heteroskedastisitas, gejala multikolinearitas, dan gejala autokorelasi. Model regresi akan dapat dijadikan alat estimasi yang tidak bisa jika telah memenuhi persyaratan BLUE (Best Linear Unbiased Estimator) yakni tidak terdapat heteroskedastisitas, tidak terdapat multikolinearitas, dan tidak terdapat autokorelasi. Jika terdapat heteroskedastisitas, maka varian tidak konstan sehingga dapat menyebabkan biasnya standar error. Jika terdapat multikolinearitas, maka akan sulit untuk mengisolasi pengaruh-pengaruh individual dari variabel, sehingga tingkat signifikasi koefisien regresi menjadi rendah. Dengan adanya autokorelasi mengakibatkan penaksir masih tetap bias dan masih tetap konsisten dan hanya saja menjadi tidak efisien. Dalam makalah ini, penulis membahas terkait asumsi klasik, autokorelasi, dan multikolinearitas. Sebagaimana halnya setiap pengujian hipotesis dalam statistic, kita akan mencoba mengetahui apakah nilai parameter-parameter yang ditaksir dalam model regresi cocok dengan nilai yang dihipotesiskan dari parameter-parameter tersebut kita akan membahas mengapa kita menggunakan model regresi linear klasik. Tentang multikolinearitas mencoba menentukan apa yang terjadi jika dua variabel penjelas atau lebih berkorelasi. Ingat kembali salah satu asumsi CRLM mengenai variabel-variabel penjelas yang tidak memiliki hubunganhubungan penjelas tidak berhubungan linear sempurna, menaksir kuadrat terkecil biasa (OLS) masih menjadi penafsir tak bias linear terbaik BLUE.
1
1.2 Rumusan Masalah Berdasarkan uraian latar belakang diatas maka rumusan masalah pada penulisan ini adalah, apakah yang dimaksud dengan uji asumsi klasik, apa saja yang menjadi bagian dari asumsi klasik, apa yang disebut uji normalitas, apa yang dimaksud uji autokorelasi, apa yang dimaksud uji multikolinearitas , apa yang dimaksud uji heteroksiditas dan apa yang dimaksud uji linearitas?
1.3 Tujuan Penulisan 1. Untuk mengetahui maksud dari Asumsi Klasik. 2. Untuk mengetahui apa saja yang menjadi bagian dari Asumsi Klasik. 3. Untuk mengetahui apa yang dimaksud dengan uji Normalitas. 4. Untuk mengetahui apa yang dimaksud dengan uji Autokorelas. 5. Untuk mengetahui apa yang dimaksud dengan uji Multikolinearitas. 6. Untuk mengetahui apa yang dimaksud dengan uji Meterokdisitas. 7. Untuk mengetahui apa yang dimaksud dengan uji Linearitas.
2
BAB II TINJAUAN TEORI
2.1 Pengertian Uji Asumsi Klasik Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least aquare (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistic atau regesi ordinal, demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada cross sectional. Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan pengemasan regresi, tetapi tidak perlu diuji asumsi klasik. Uji asumsi klasik merupakan terjemahan dari chlasical linear regressiom model (CLRM) yang merupakan asumsi yang diperlukan dalam analisis regresi linear dengan ordinary least square. Sebagai informasi, semua ini berkat kejeniusan seorang matematikawan Jerman bernama Carl Friedch Gauss. CLRM juga sering disebut dengan The Gaussian Standard, yang sebenarnya terdiri dari 10 item. Akan tetapi, yang sering kita jumpai dalam berbagai penelitian, atau berbagai buku statistic terapan mungkin hanya 4 atau 5 saja. Mengapa? Berikut sedikit uraian tentang 10 item tersebut. 1. Asumsi 1: Linear regression model Model regresi haruslah linear, meskipun bila saja sebenarnya variabel terikat Y dengan variabel bebas X tidak linear. Istilah linear ada dua macam, yaitu linearitas pada variabel dan linearitas pada parameter. Yang disebut ldengan linearitas pada variabel adalah jika digambarkan dalam grafik maka akan berbentuk garis lurus. Misalnya
3
persamaan Y = a + bX. Seandainya persamaannya adalah Y = a + b X2 dapat disebut linear jika koefisien b mempunyai pangkat 1. Asumsi yang diperlukan dalam regresi linear adalah linearitas pada parameter, bukan linearitas pada variabel. 2. Asumsi 2: Values are fixed in repeated sampling Nilai variabel X diasumsikan stokastik atau dianggap tetap dalam sampel yang berulang. Misalnya ada 7 data yang akan dianalisa dengan regresi (ini hanya contoh saja, karena regresi dengan 7 data tampaknya terlalu sedikit) Gaji (Juta)
Pengeluaran (Juta)
3
2,5
3
2
3
3
4
3
4
2,5
5
4,5
5
4
Jadi misalnya ambil nilai tetap untuk X, yaitu gaji 3 juta maka sampel pertama mempunyai pengeluaran 2,5 juta. Lalu ambil lagi kedua dengan gaji 3 juta maka pengeluarannya adalah 2 juta. Demikian seterusnya untuk sampel dengan gaji 4 juta dan 5 juta. Nilai X dianggap tetap pada sampel yang berulang. (dalam regresi lanjut, dapat disaumsikan bahwa X tidak stokastik). 3. Asumsi 3: Zero mean value of disturbance ui Nilai Y hasil prediksi dengan model regresi tentunya mempunya kesalahan atau tidak tepat sama dengan nilai Y pada data. Selisihnya sering disebut dengan disturbance dan sering disimbolkan dengan u. nilai ini harus mempunyai rata-rata sama dengan 0 (eksak). Ketika telah mendapatkan garis lurus pada model, maka nilai Y yang sebenarnya bisa berada di atas atau dibawah garis lurus tersebut, akan tetapi jumlahnya akan seimbang sehingga rata-ratanya sama dengan 0.
4
4. Asumsi 4: Homoscedasticity or equal variance of ui Homo berarti sama atau equal, scedasticity berarti disperse atau scatter atau ada yang mengartikan sebaran. Jadi varians dari error atau disturbance haruslah sama pada masing-msaing nilai X. sebagai contoh, ada 3 orang dengan gaji 3 juta sehingga memberikan tiga buah error dan mempunyai varians. Varians ini harus sama (equal) dengan varians error pada nilai X yang lain misalnya 4 juta. Demikian seterusnya. 5. Asumsi 5: No autocorrelation between the disturbances Asumsi ini masih berkaitan dengan nilai error, yaitu bahwa untuk sembarang 2 buah nilai X, maka kedua error itu tidak berkorelasi (atau mempunyai korelasi 0). Missalnya error pada X sebesar 3 juta dengan Y sebesar 2 juta tidak berkorelasi. Penelitian lain adalah misalnya ada persamaan Y=a+bX+u dengan u adalah error. Jika ada korelasi antara u dengan u-1 (error sebelumnya) maka model akan gagal, karena Y pada model harusnya dipengaruhi oleh X saja, akan dipengaruhi oleh u. demikian seterusnya. 6. Asumsi 6: Zero covariance between ui and Xi Artinya nilai variabel bebas (X) dengan error (ui) tidak berkorelasi. Diasumsikan bahwa Y adalah dipengaruhi oleh X dan u, sehingga X dan u harus tidak saling berkorelasi. Jika X atau u berkorelasi, maka tidak mungkin mencari pengaruh masing-masing terhadap Y. Jika X berkorelasi positif dengan u, maka jika X meningkat u juga meningkat, atau jika X menurun maka u juga menurun (juga sebaliknya jika berkorelasi negatif). Sehingga sulit untuk mengisolasi pengaruh X dan u terhadap Y. asumsi ini sebenarnya akan terpenuhi secara otomatis jika X merupakan stokastik karena untuk X bernilai tetap, u akan berubah. 7. Asumsi 7: The number of observation n must than tehe number of parameters to be estimated Asumsi ini sebenarnya tidak asing bagi matematika sederhana. Jika ada dua parameter yang akan dicari nilainya maka tidak mungkin diselesaikan dengan satu persamaan (observasi).
5
8. Asumsi 8: Variabillity in X values Harus ada variasi nilai dalam variabel X. jika X nilainya sama untuk semua observasi maka tentunya tidak dapat diestimasi. Meskipun ini mudah dimengerti namun sering dilipakan. 9. Asumsi 9: The regression model is correctly specified Model regresi yang dibangun haruslah benar dalam arti sesuai dengan teori yang telah dikembangkan. Seperti telah dijelaskan bahwa statistic hanyalah untuk menguji teori atau fenomena tertentu. Jadi jika menggunakan variabel yang sembarangan (atau tidak berdasarkan teori tertentu) maka model regresi yang dihasilkan juga patut dipertanyakan. 10. Asumsi 10: there is no perfect multicollinearity Tidak ada hubungan linear yang tinggi antara variabel-variabel bebas dalam model regresi. Jadi asumsi ini tentunya tidak bisa diterapkan pada regresi dengan satu variabel bebas (regresi linear sederhana).
2.2 Uji Normalitas Uji normalitas adalah untuk melihat apakah nilai tersebut berdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai residual yang berdistribusi normal. Jadi uji normalitas bukan dilakukan pada masingmasing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian. Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan median relative dekat.
6
Uji normalitas dapat dilakukan dengan uji histogram, uji P Plot, uji Chi Square, Skewness dan Kurtosis atau uji Kolomogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi diantara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistic bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistic lebih baik dari pada pengujian dengan metode grafik. Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikasi Kolomogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah dataobservasi. Transformasi data dapat dilakukan ke dalam bentuk logaritma.natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri. Uji asumsi normalitas untuk mendeteksi kemungkinan normalitas kesalahan pengganggu. Uji ini dilakukan dengan cara uji chi square goodness of fit atau dapat dengan langsung mengamati distribusi yang terbentuk dari output computer untuk data yang berdistribusi normal. Metode yang digunakan untuk menguji normalitas dalam penelitia ini adalah kolomogorovsmirnov. Apabila dari hasil pengujian normalitas, terlihat sebaran data variabel X1, X2 , X3, X4, dan X5 mengikuti kurva normal maka dapat langsung diadakan pengujian hipotesis. Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan adalah menghitung standar deviasi. 𝑆𝐷 = ∑ ( SD 1 = 68% SD 2 = 95% SD 3 = 99,7%
7
𝐷𝑣 − 𝐷𝑣 ) 𝑛
Penentuan area ini penting, karena sebaran data yang dikatakan normal apabila sebagai berikut:
Sebanyak 68% dari observasi berada pada area SD1
Sebanyak 95% dari sisanya berada pada area SD2
Sebanyak 99% dari sisanya berada pada area SD3
Sebaran data yang dikatakan normal:
Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.
Data
yang
tidak
normal
juga
dapat
dibedakan
dari
tingkat
kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negative skewness. Data dikatakan normal jika datanya simetris.
2.3 Asumsi Klasik Autokorelasi Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t-1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terkait, jika tidak boleh ada korelasi antara observasi dengan observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relative tinggi, maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah. Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuisioner di mana pengukuran semua variabel dilakukan secara serempak pada saat
8
bersamaan. Model regresi pada penelitian di nbursa efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi. Beberapa uji statistic yang sering dipergunakan adalah uji DurbinWatson, uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiper. Beberapa cara untuk menanggulangi autokorelasi adalah dengan mentranformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan memasukkan variabel lagi dengan variabel terkaitnya menjadi salah satu variabel bebas, sehingga data observasi menjadi berkurang. Sebab- sebab Autokorelasi 1). Interia: data umumnya yang digunakan berbentuk kumulatif bukan individual series. Sehingga nilai data pada satu titik lebih besar dari data sebelumnya. 2). Manipulasi Data: menggunakan data tahunan menjadi triwulan dengan cara membagi tiga data tahunan secara langsung. Tujuan penerapan Autokorelasi Uji autokorelasi bertujuan menguji apakah dalam suatu model regresi linear ada korelasi antara kesalahanpengganggu pada periode (t) dengan kesalahan pada periode t-1 (sebelumnya). Jika terjadi korelasi maka dinamakan ada problem autokorelasi. Model regresi yang baik adalah regresi yang bebas dari autokorelasi Uji auto korelasi dilakukan dengan 𝛼=5%, menggunakan uji Durbin-Watson (D-W), dengan tingkat kepercayaan apabila D-W terletak antara -2 sampai +2 maka tidak ada autokorelasi. Mendeteksi adanya autokorelasi Dalam praktek secara umum, metode yang sering digunakan adalah: Durbin-Watson Method. Dalam regresi linier tidak terjadi autokorelasi jika nilai Durbin-Watson: 1,70-2,30. Akibat Autokorelasi Akibatnya adalah niali (t) hitung akan menjadi bias pula, karena nilai (t) diperoleh dari hasil bagi Sb terhadap b (t=b/sb). Berhubung nilai Sb
9
bias maka nilai (t) juga akan bias atau bersifat tidak pasti (misleading). Karena adanya masalah korelasi dapat menimbulkan adanya bias pada hasil regresi.
2.4 Uji Multikolinearitas Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi diantara variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel terkaitnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terkainya adalah kinerja. Logika sederhananya adalah bahwa model tersesbut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi anatara motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja. Alat statistic yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index (CI). Beberapa alternative cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut: 1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi 2. Menambah jumlah observasi 3. Mentranformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first difference delta. Multikolinearitas adalah suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak diantara variabel penjelas yang dimasukkan ke dalam model.
Konsekuensi Multikolinearitas
10
Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai (t).
Pendeteksian Multikolinearitas Terdapat beragam cara untuk menguji multikolinearitas diantaranya: menganalisis
matrix
korelasi
dengan
Pearson
Correlation
atau
Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxiliary regression. Pendapat Gujarati (1995) yang mengatakan bahwa bila korelasi antara dua variabel bebas melebihi 0,8 maka multikolinearitas menjadi masalah yang serius. Gujarati juga menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besa disbanding korelasi variabel terkait dengan masing-masing variabel penjelas, maka dapat dikatakan tidak terdapat masalah yang serius. Engan demikian, dapat dismimpulkan bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas. Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbatas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai (t) signifikan.
Tujuan Penerapan Multikolinearitas Uji multikolinearitas bertujuan untuk menguji apakah dalam model regresi ditemukan adanya korelasi antar variabel bebas (independen). Dalam model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel bebas. Uji multikolinearitas dilakukan dengan melihat nilai tolerance dan variance inflation factor (VIF) dari hasil analisis dengan menggunakan SPSS. Apabila nilai tolerance value lebih tinggi daripada 0,10 atau VIF lebih kecil daripada 10 maka dapat disimpulkan tidak terjadi multikolinearitas.
11
2.5 Uji Heteroskedastisitas Uji
heteroskedastisitas
adalah
untuk
melihat
apakah
terdapat
ketidaksamaan varians dari residual satu ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut heteroskedastisitas. Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai nresidualnya). Model yang didapatkan jika tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji statistic yang dapat digunakan adalah uji Glejser, uji Park atau uji White. Beberapa
alternatif
solusi
jika
model
menyalahi
asumsi
heteroskedastisitas. Heteroskedastisitas mencul apabila kesalahan (e) atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya rumus regrensi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak heteroskedastisitas atau mengalami heteroskedastisitas. 2.6 Uji Linearitas Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibenetuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dan variabel terikatnya adalah linear. Hubungan atara variabel yang secara teori buka merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas. Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustments bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk untuk mengkonfirmasikan apakah sifat linear antara dua
12
variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Romsey Test atau uji Lagrange Multiper.
13
BAB III PENUTUP
3.1 Kesimpulan Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least aquare (OLS). Uji asumsi klasik merupakan terjemahan dari chlasical linear regressiom model (CLRM) yang merupakan asumsi yang diperlukan dalam analisis regresi linear dengan ordinary least square. CLRM juga sering disebut dengan The Gaussian Standard, yang sebenarnya terdiri dari 10 item. Akan tetapi, yang sering kita jumpai dalam berbagai penelitian, atau berbagai buku statistic terapan mungkin hanya 4 atau 5 saja. Asumsi 1: Linear regression model, Asumsi 2: Values are fixed in repeated sampling, Asumsi 3: Zero mean value of disturbance ui, Asumsi 4: Homoscedasticity or equal variance of ui, Asumsi 5: No autocorrelation between the disturbance, Asumsi 6: Zero covariance between ui and Xi, Asumsi 7: The number of observation n must than tehe number of parameters to be estimated, Asumsi 8: Variabillity in X values, Asumsi 9: The regression model is correctly specified dan Asumsi 10: there is no perfect multicollineariti. Asumsi Klasik yang sering digunakan yakni: uji Normalitas, uji Autokorelas, uji Multikolinearitas, uji Meterokdisitas dan uji Linearitas.
14
DAFTAR PUSTAKA
Arikunto. (2003). Dasar-Dasar Evaluasi Pendidikan. Jakarta: Bumi Aksara Gujarati.(1995). Basic aEconometrics (3rd edition ed). Yogyakarta: APM YKPN Santoso, Sugih. (2002). SPSS mengolah Data Statistik Secara Profesional. Jakarta: PT Elex Media Komputindo Santoso, Sugih. (2010). Buku Latihan SPSS Statistik Parametrik. Jakarta: PT Elex Media Komputindo
15