Sebagaimana yang telah dibahas dalam artikel “Uji Hipotesis Menggunakan Regresi Berganda, Uji F, Uji t, dan Adjusted R Squared ” bahwa Uji F digunakan untuk menguji salah satu hipotesis di dalam penelitian yang menggunakan analisis Regresi Linear Berganda.
Pada artikel kali ini, kami akan menampilkan langkah-langkah Uji F tersebut dengan menggunakan bantuan software IBM SPSS21. SPSS21 .
Kami menggunakan software IBM SPSS 21, tetapi langkah-langkah yang kami tampilkan di sini bisa juga diterapkan pada software software SPSS SPSS versi di bawah 21.
Ok. Langsung saja, kami asumsikan pembaca sudah mempunyai tabulasi data yang siap diolah di dalam SPSS. Misalkan kita mempunyai tabulasi data dengan 3 variabel, yang terdiri dari 2 variabel bebas dan 1 variabel terikat.
Dua variabel bebas tersebut misalkan Praktik Kerja Industri / Prakerin (X 1) dan Motivasi Kerja (X2). Satu variabel terikatnya adalah Kesiapan Kerja (Y), sehingga apabila data tersebut sudah ditabulasi akan seperti gambar di bawah ini:
Adapun Langkah-langkah
Uji F menggunakan SPSS 21 adalah
sebagai berikut:
1. Klik Analyze --> Regression --> Linear …
2. Setelah itu akan muncul window baru, kemudian masukkan variabel Y (Kesiapan Kerja ke dalam kotak ‘Dependent’ dan variabel X1 dan X2 (Prakerin dan Motivasi Kerja) ke dalam kotak ‘Independent’
3. Klik ‘OK’ untuk mengakhiri langkah
4. Setelah itu, akan muncul window baru yaitu output dari analisis tersebut. Yang digunakan hanya tabel ‘ANOVA’ khususnya untuk kolom ‘F’ dan ‘Sig.’
Kriteria Pengujian Setelah melihat tabel ‘ANOVA’ di atas, langkah selanjutnya adalah kriteria pengujiannya. Terdapat dua cara kriteria pengujian, dan bisa dipilih salah satu saja, yaitu:
1. Nilai ‘F’ Nilai F dalam contoh di atas adalah 14,055. Angka ini adalah nilai F hitung, yang selanjutnya dibandingkan dengan nilai F tabel. Apabila nilai F hitung lebih besar dari F ta bel maka
disimpulkan bahwa terdapat pengaruh yang signifikan antara Prakerin (X 1) dan Motivasi Kerja (X2) secara simultan terhadap Kesiapan Kerja (Y) dan sebaliknya.
2. Nilai‘Sig.’ ‘Sig.’ di sini berarti taraf Signifikansi. Kriteria pengujiannya adalah apabila nilai ‘Sig.’ lebih kecil dari taraf signifikansi yang digunakan (misal: 0,01 / 0,05 / 0,1 tergantung peneliti) maka dapat disimpulkan bahwa terdapat pengaruh yang signifikan antara Prakerin (X 1) dan Motivasi Kerja (X2) secara simultan terhadap Kesiapan Kerja (Y) dan sebaliknya.
Pengujian Hipotesis Distribusi Uji T dan F Pada Model Regresi Berganda Juli 17, 2009titasandyTinggalkan komentarGo to comments
Analisis regresi berganda (Multivariate Regression) merupakan suatu model dimana variabel terikat tergantung pada dua atau lebih variabel bebas. Analisis ini digunakan untuk mengetahui pengaruh variabel bebas/ independen terhadap variabel terikat. Analisis regresi berganda dapat dinyatakan dengan persamaan berikut. Y = a + b 1X1 + b2X2 + …… + bnXn Dimana: Y adalah variabel tak bebas/ terikat X adalah variabel-variabel bebas a adalah konstanta (intersept) b adalah koefisien regresi/ nilai parameter Pengujian Hipotesis Distribusi t Pada Model Regresi Berganda Uji t pada dasarnya menunjukkan seberapa jauh pengaruh satu variabel bebas secara individual dalam menerangkan variasi variabel terikat. Tujuan dari uji t
adalah untuk menguji koefisien regresi secara individual. Hipotesa Nol = Ho Ho adalah satu pernyataan mengenai nilai parameter populasi. Ho merupakan hipotesis statistik yang akan diuji hipotesis nihil.
Hipotesa alternatif = Ha Ha adalah satu pernyataan yang diterima jika data sampel memberikan cukup bukti bahwa hipotesa nol adalah salah. Langkah-langkah/ urutan menguji hipotesa dengan distribusi t 1. Merumuskan hipotesa Ho : βi = 0, artinya variabel bebas bukan merupakan penjelas yang sign ifikan terhadap variabel terikat Ha : βi ≠ 0, artinya variabel bebas merupakan penjelas yang signifikan terhadap variabel terikat. 2. Menentukan taraf nyata/ level of significance = α Taraf nyata / derajad keyakinan yang digunakan sebesar α = 1%, 5%, 10%, dengan:
df = n – k Dimana: df = degree of freedom/ derajad kebebasan n = Jumlah sampel k = banyaknya koefisien regresi + konstanta 3. Menentukan daerah keputusan, yaitu daerah dimana hipotesa nol diterima atau tidak. Untuk mengetahui kebenaran hipotesis digunakan kriteria sebagai berikut. Ho diterima apabila –t (α / 2; n – k) ≤ t hitung ≤ t (α / 2; n – k), artinya tidak ada pengaruh antara variabel bebas terhadap variabel terikat. Ho ditolak apabila t hitung > t (α / 2; n– k) atau –t hitung < -t (α / 2; n – k), artinya ada pengaruh antara variabel bebas terhadap variabel terikat.
4. Menentukan uji statistik (Rule of the test) 5. Mengambil keputusan Keputusan bisa menolak Ho atau menolak Ho menerima Ha. Nilai t tabel yang diperoleh dibandingkan nilai t hitung, bila t hitung lebih besar dari t tabel, maka Ho ditolak, sehingga dapat disimpulkan bahwa variabel independent berpengaruh pada variabel dependent. Apabila t hitung lebih kecil dari t tabel, maka Ho diterima sehingga dapat disimpulkan bahwa variabel independen tidak berpengaruh terhadap variabel dependen. Pengujian Hipotesis Distribusi F Pada Model Regresi Berganda Tabel F dilakukan untuk mengetahui pengaruh variabel bebas secara bersamasama terhadap variabel terikat. Langkah-langkah/ urutan menguji hipotesa dengan distribusi F 1. Merumuskan hipotesa Ho : β1 = β2 = β3 = β4 = 0, berarti secara bersama-sama tidak ada pengaruh variabel bebas terhadap variabel terikat.
Ha : β1 ≠ β2 ≠ β3 ≠ β4 ≠ 0, berarti secara bersama-sama ada pengaruh variabel bebas terhadap variabel terikat. 2. Menentukan taraf nyata/ level of significance = α Taraf nyata / derajad keyakinan yang digunakan sebesar α = 1%, 5%, 10%. Derajat bebas (df) dalam distribusi F ada dua, yaitu : df numerator = dfn = df 1 = k – 1 df denumerator = dfd = df 2 = n – k Dimana: df = degree of freedom/ derajad kebebasan n = Jumlah sampel k = banyaknya koefisien regresi 3. Menentukan daerah keputusan, yaitu daerah dimana hipotesa nol diterima atau tidak Ho diterima apabila F hitung ≤ F tabel, artinya semua variabel bebas secara bersama-sama bukan merupakan variabel penjelas yang signifikan terhadap variabel terikat. Ho ditolak apabila F hitung > F tabel, artinya semua variabel bebas secara bersama-sama merupakan penjelas yang signifikan terhadap variabel terikat. 4. Menentukan uji statistic nilai F Bentuk distribusi F selalu bernilai positif
5. Mengambil keputusan Keputusan bisa menolak Ho atau menolak Ho menerima Ha. Nilai F tabel yang diperoleh dibanding dengan nilai F hitung apabila F hitung lebih besar dari F tabel, maka ditolak sehingga dapat disimpulkan bahwa ada pengaruh yang signifikan antara variabel independen dengan variabel dependen. Note: Mohon maap klo admin tidak bisa menjawab semua pertanyaan dari sodara-sodara. Admin cuma ingin berbagi catatan yang didapat di
perkuliahan dan meng-sharenya (bukan pakar statistik). hehe.. Tapi semoga bermanfaat. Postingan terkait :
uji F Uji F digunakan untuk mengetahui pengaruh variabel bebas secara bersama-sama (simultan) terhadap variabel terikat. Signifikan berarti hubungan yang terjadi dapat berlaku untuk populasi.
Penggunaan tingkat signifikansinya beragam, tergantung keinginan peneliti, yaitu 0,01 (1%) ; 0,05 (5%) dan 0,10 (10%).
Hasil uji F dilihat dalam tabel ANOVA dalam kolom sig. Sebagai contoh, kita menggunakan taraf signifikansi 5% (0,05), jika nilai probabilitas < 0,05, maka dapat dikatakan terdapat pengaruh yang signifikan secara bersama-sama antara variabel bebas terhadap variabel terikat.
Namun, jika nilai signifikansi > 0,05 maka tidak terdapat pengaruh yang signifikan secara bersama-sama antara variabel bebas terhadap variabel terikat.
Biasanya pada naskah skripsi atau tesis yang menggunakan analisis linear regresi berganda akan mempunyai hipotesis parsial (diuji dengan uji t) dan hipotesis simultan (diuji dengan uji F). Fenomena tersebut seolah-olah sudah latah dilakukan oleh mahasiswa dan juga disetujui oleh dosen pembimbing, yang sangat mungkin bukan berasal dari ilmu statistik. Perumusan hipotesis parsial didasari oleh dasar teori yang kuat dan dapat dengan mudah dilakukan oleh mahasiswa dengan bantuan dosen, karena dosen memang sangat menguasai tentang hal itu. Akan tetapi, sebenarnya hipotesis simultan sering kali didasari oleh teori yang seolah-olah dipaksakan. Sebenarnya uji F adalah untuk melihat kelayakan modal saja. Jika uji F tidak signifikan, maka tidak disarankan untuk melakukan uji t atau uji parsial. Jadi hipotesis simultan sebenarnya tidak selalu harus dirumuskan dalam suatu penelitian. Toh dasar teorinya juga sangat lemah. Penentuan penerimaan hipotesis dengan uji t dapat dilakukan berdasarkan tabel t. Nilai t hitung hasil regresi dibandingkan dengan nilai t pada tabel. Jika t hitung > t tabel maka berarti terdapat pengaruh yang signifikan secara parsial, dan sebaliknya jika t hitung < t tabel maka tidak terdapat pengaruh yang signifikan secara parsial. Hal tersebut juga berlaku untuk F hitung. Cara melihat nilai t tabel dan F tabel sudah banyak dibahas pada berbagai buku statistik. Misalnya untuk jumlah sampel 100 maka nilai t tabel untuk signifikansi 5% adalah dengan melihat nilai t dengan degree of freedom sebesar N – 2 = 100 – 2 = 98 untuk hipotesis dua arah. Nilai t dilihat pada kolom signifikansi : 2 = 5% : 2 = 0,025. Jika pengujian satu arah, maka df adalah 100 – 1 = 99 dan dilihat pada kolom 5%. Untuk uji F, maka df dihitung dengan N – k – 1 dengan k adalah jumlah variabel bebas. Anda jangan bertanya, bagaimana kalau uji satu arah dan dua arah pada uji F. Uji F tidak mengenal arah, jadi ya pasti satu arah. Logika uji dua arah, adalah terdapat pengaruh antara variabel bebas terhadap variabel terikat, dan uji satu arah adalah terdapat pengaruh negatif/positif antara variabel bebas antara variabel bebas terhadap variabel terikat. Lha kalau uji F kan uji simultan, jadi bagaimana menentukan arah positif atau negatif. Penulis sangat prihatin jika ada orang bertanya uji F yang digunakan satu arah atau dua arah. Wah kalau Mbah Fisher (penemu uji F) tahu bisa sakit jantung!!! Untuk Mbah Fisher sudah g ak punya jantung… Ha ha ha….
Justifikasi Penerimaan Hipotesis Biasanya pada naskah skripsi atau tesis yang menggunakan analisis linear regresi berganda akan mempunyai hipotesis parsial (diuji dengan uji t) dan hipotesis simultan (diuji dengan uji F). Fenomena tersebut seolah-olah sudah latah dilakukan oleh mahasiswa dan juga disetujui oleh dosen pembimbing, yang sangat mungkin bukan berasal dari ilmu statistik.
Perumusan hipotesis parsial didasari oleh dasar teori yang kuat dan dapat dengan mudah dilakukan oleh mahasiswa dengan bantuan dosen, karena dosen memang sangat menguasai tentang hal itu. Akan tetapi, sebenarnya hipotesis simultan sering kali didasari oleh teori yang seolah-olah dipaksakan. Sebenarnya uji F adalah untuk melihat kelayakan modal saja. Jika uji F tidak signifikan, maka tidak disarankan untuk melakukan uji t atau uji parsial. Jadi hipotesis simultan sebenarnya tidak selalu harus dirumuskan dalam suatu penelitian. Toh dasar teorinya juga sangat lemah.
Penentuan penerimaan hipotesis dengan uji t dapat dilakukan berdasarkan tabel t. Nilai t hitung hasil regresi dibandingkan dengan nilai t pada tabel. Jika t hitung > t tabel maka berarti terdapat pengaruh yang signifikan secara parsial, dan sebaliknya jika t hitung < t tabel maka tidak terdapat pengaruh yang signifikan secara parsial. Hal tersebut juga berlaku untuk F hitung. Cara melihat nilai t tabel dan F tabel sudah banyak dibahas pada berbagai buku statistik. Misalnya untuk jumlah sampel 100 maka nilai t tabel untuk signifikansi 5% adalah dengan melihat nilai t dengan degree of freedom sebesar N – 2 = 100 – 2 = 98 untuk hipotesis dua arah. Nilai t dilihat pada kolom signifikansi : 2 = 5% : 2 = 0,025. Jika pengujian satu arah, maka df adalah 100 – 1 = 99 dan dilihat pada kolom 5%.
Untuk uji F, maka df dihitung dengan N – k – 1 dengan k adalah jumlah variabel bebas. Anda jangan bertanya, bagaimana kalau uji satu arah dan dua arah pada uji F. Uji F tidak mengenal arah, jadi ya pasti satu arah. Logika uji dua arah, adalah terdapat pengaruh antara variabel bebas terhadap variabel terikat, dan uji satu arah adalah terdapat pengaruh negatif/positif antara variabel bebas antara variabel bebas terhadap variabel terikat. Lha kalau uji F kan uji simultan, jadi bagaimana menentukan arah positif atau negatif. Penulis sangat prihatin jika ada orang bertanya uji F yang digunakan satu arah atau dua arah.
ONE WAY ANNOVA
Uji ini digunakan untuk mengetahui ada atau tidaknya perbedaan ratarata untuk lebih dari dua kelompok sampel yang tidak berhubungan. Jika ada perbedaan, rata-rata manakah yang lebih tinggi. Data yang digunakan biasanya berskala interval atau rasio. Contoh kasus: Menggunakan contoh kasus pada uji independent sample t test ditambah satu kelompok data yaitu kelas C. Seorang mahasiswa dalam penelitiannya ingin mengetahui apakah ada perbedaan nilai ujian antara kelas A, kelas B, dan kelas C pada fakultas Psikologi suatu universitas. Penelitian dengan menggunakan sampel sebanyak 20 responden yang diambil dari kelas A, kelas B. Dalam uji ini jumlah kelompok responden yang diambil tidak harus sama, misalnya kelas A sebanyak 7 orang, kelas B sebanyak 7 orang, dan kelas C sebanyak 6. Data-data yang didapat sebagai berikut: Tabel 39. Tabulasi Data (Data Fikti) No Nilai Ujian 1 32 2 35 3 41 4 39 5 45 6 43 7 42 8 35 9 36 10 30 11 28 12 26 13 27 14 32 15 38 16 45 17 42 18 42 19 40 20 38 Langkah-langkah uji dengan program SPSS Masuk program SPSS Klik variable view pada SPSS data editor
Kelas Kelas A Kelas A Kelas A Kelas A Kelas A Kelas A Kelas A Kelas B Kelas B Kelas B Kelas B Kelas B Kelas B Kelas B Kelas C Kelas C Kelas C Kelas C Kelas C Kelas C
Pada kolom Name ketik nilaiujn, dan kolom Name pada baris kedua ketik kelas. Pada kolom Decimals, ubah nilai menjadi 0 untuk semua variabel. Pada kolom Label, untuk kolom pada baris pertama ketik Nilai Ujian, untuk kolom pada baris kedua ketik Kelas. Pada kolom Values, untuk kolom pada baris pertama biarkan kosong (None). Untuk kolom pada baris kedua klik pada kotak kecil, pada value ketik 1, pada Value Label ketik kelas A, lalu klik Add. Langkah selanjutnya pada Value ketik 2, pada Value Label ketik kelas B, lalu klik Add. Selanjutnya pada Value ketik 3, pada Value Label ketik kelas C, lalu klik Add. Kemudian klik OK. Untuk kolom-kolom lainnya boleh dihiraukan (isian default) Buka data view pada SPSS data editor, maka didapat kolom variabel nilaiujn dan kelas. Ketikkan data sesuai dengan variabelnya (pada variabel kelas ketik dengan angka 1, 2 dan 3 (1 menunjukkan kelas A, 2 menunjukkan kelas B, dan 3 menunjukkan kelas C) Klik Analyze - Compare Means - One Way ANOVA Klik variabel Nilai Ujian dan masukkan ke kotak Dependent List, kemudian klik variabel Kelas dan masukkan ke kotak Factor, kemudian klik Options, klik Descriptive dan Homogeneity of variance, lalu klik Continue. Klik OK, maka hasil output yang didapat adalah sebagai berikut:
Tabel. Hasil Uji One Way ANOVA
Keterangan: Tabel Descriptives di atas telah dirubah kedalam bentuk baris (double klik pada output Descriptives, kemudian pada menu bar klik pivot, kemudian klik Transpose Rows and Columns)
Sebelum dilakukan uji ANOVA maka dilakukan uji kesamaan varian (homogenitas) dengan Levene Test, uji ini digunakan untuk mengetahui apakah varian ketiga kelompok kelas sama. Data yang memenuhi syarat adalah jika varian sama atau subjek berasal dari kelompok yang homogen. Langkah-langkah uji homogenitas sebagai berikut: 1. Menentukan Hipotesis Ho : Ketiga varian adalah sama (varian kelompok kelas A, B dan C sama) Ha : Ketiga varian adalah berbeda (varian kelompok kelas A, B dan C sama) 2. Kriteria Pengujian (berdasar probabilitas / signifikansi) rima jika P value > 0,05 Ho ditolak jika P value < 0,05 3. Membandingkan probabilitas Nilai P value (0,395 > 0,05) maka Ho diterima. (lihat output pada test of homogeneity of variance) 4. Kesimpulan Oleh karena nilai probabilitas (signifikansi) adalah 0,395 lebih besar dari 0,05 maka Ho diterima, jadi dapat disimpulkan bahwa ketiga varian sama (varian kelompok kelas A, B dan C sama). Angka Levene Statistic menunjukkan semakin kecil nilainya maka semakin besar homogenitasnya. df1 = jumlah kelompok data-1 atau 3-1 = 2, sedangkan df2 = jumlah data – jumlah kelompok data atau 20-3 = 17. Langkah-langkah uji ANOVA sebagai berikut: 1. Menentukan Hipotesis Ho : Tidak ada perbedaan antara rata-rata nilai ujian kelas A, kelas B dan kelas C Ha : Ada perbedaan antara rata-rata nilai ujian kelas A, kelas B dan kelas C 2. Menentukan tingkat signifikansi Pengujian menggunakan uji dua sisi dengan tingkat signifikansi = 5%. Tingkat signifikansi dalam hal ini berarti kita mengambil risiko salah dalam mengambil keputusan untuk menolak hipotesis yang benar sebanyakbanyaknya 5% (signifikansi 5% atau 0,05 adalah ukuran standar yang sering digunakan dalam penelitian)
3. Menentukan F hitung Dari tabel di atas didapat nilai F hitung adalah 14,029 4. Menentukan F tabel Dengan menggunakan tingkat keyakinan 95%, = 5%, df 1 (jumlah variabel – 1) = 2, dan df 2 (n-3) atau 20-3 = 17, hasil diperoleh untuk F tabel sebesar 3,592 (Lihat pada lampiran) atau dapat dicari di Ms Excel dengan cara pada cell kosong ketik =finv(0.05,2,17) lalu enter. 5. Kriteria pengujian - Ho diterima bila F hitung F tabel - Ho ditolak bila F hitung > F tabel 6. Membandingkan F hitung dengan F tabel. Nilai F hitung > F tabel (14,029 > 3,592), maka Ho ditolak. 7. Kesimpulan Karena F hitung > F tabel (14,029 > 3,592), maka Ho ditolak, jadi dapat disimpulkan bahwa ada perbedaan antara rata-rata nilai ujian kelas A, kelas B dan kelas C. Pada tabel Descriptives terlihat rata-rata (mean) untuk kelas A adalah 39,57, untuk kelas B adalah 30,57 dan kelas C adalah 40,83, artinya bahwa rata-rata nilai ujian kelas C paling tinggi, kemudian kelas A dan kelas B.