Analisis Regresi Linier

Analisis regresi berganda adalah metode analisis untuk meramalkan nilai pengaruh dua variabel bebas atau lebih (X1, X2, X3, ..., Xn) terhadap satu variabel terikat Y. Semakin banyak variabel bebas yang digunakan maka semakin tinggi pula kemampuan model regresi untuk menjelaskan variabel terikat. Faktor-faktor lain di luar variabel bebas yang digunakan (residual) akan semakin kecil dan semakin tinggi pula koefisien determinasinya (R2). Contoh analisis yang dapat digunakan dalam penelitian sebagai berikut :
Sehingga, bentuk persamaan regresi yang akan dibentuk adalah :
Pemeriksaan keberartian pada analisis korelasi ganda dapat dilakukan dengan mengikuti langkah-langkah berikut :
  1. Menentukan rumusan hipotesis Ho dan H1. Ho : R = 0 : Tidak ada pengaruh variabel bebas terhadap variabel terikat. H1 : R ≠ 0 : Ada pengaruh variabel bebas terhadap variabel terikat. 
  2.  Membandingkan nilai uji F terhadap nilai tabel F dengan kriteria pengujian: Jika nilai uji F ≥ nilai tabel F, maka tolak H0 
  3. Membuat kesimpulan
Setelah model memenuhi pemeriksaan keberartian, maka perlu dilakukan pengujian untuk mengetahui apakah model yang terbentuk telah memenuhi sifat BLUE (Best Linear Unbiased Estimator). Model yang dikatakan memiliki sifat BLUE apabila telah memenuhi asumsi klasik di bawah ini :
  1. Asumsi Normalitas Regresi linier klasik mengasumsikan bahwa residual mengikuti distribusi normal dengan rata-rata 0 dan varians konstan . Pemeriksaan normalitas dapat dilakukan menggunakan Normal Probability Plot dari nilai residual. Apabila plot nilai residual dengan nilai harapannya mendekati garis lurus dengan sudut 45o, maka dapat disimpulkan residual berdistribusi normal.
  2. Asumsi Homoskedastis adalah keadaan dimana varians residual dari setiap variabel independen adalah konstan, dapat dinyatakan sebagai berikut : Untuk mendeteksi homoskedastisitas dapat dilakukan uji White (Gujarati, 2004). Pada pengujian digunakan variabel residual kuadrat sebagai variabel dependen dan observasi sebanyak n. Jika nilai tidak lebih besar dari nilai kritis chi-square dengan derajat bebas sebanyak regresor atau nilai p-value lebih besar dari taraf keberartian, maka dapat dikatakan tidak terjadi pelanggaran heteroskedastisitas.
  3. Asumsi Non-Multikolinieritas Satu dari asumsi model regresi linear klasik adalah tidak terdapat multikolinearitas di antara variabel-variabel penjelas. Deteksi multikolinieritas dapat melalui VIF atau Variance Inflation Factor.  VIF yang besar diakibatkan oleh korelasi yang besar antara X1 dan X2. Sehingga dengan kata lain, jika VIF kecil mala dapat diduga tidak terjadi multikolinieritas. Gujarati (2004) menyatakan bila korelasi antara dua variabel bebas melebihi 0,8 sehingga menghasilkan nilai VIF sebesar 5,  maka multikolinearitas menjadi masalah yang serius. Nilai VIF adalah sebagai berikut :

No comments:

Post a Comment