ANALISIS REGRESI

sumber : https://www.spssindonesia.com/2017/03/uji-analisis-regresi-linear-sederhana.html


1.1 Latar Belakang

Sebuah penelitian yang lakukan oleh seorang peneliti pasti melakukan kegiatan menganalisis data-data yang diperoleh dari pengumpulan data. Setiap data yang didapatkan diperlukan analisis untuk memperoleh hasil yang dicari untuk memberikan suatu kesimpulan dari berbagai permasalahan yang sedang diteliti. Salah satu analisis yang bisa digunakan oleh peneliti dalam menganalisis data yaitu dengan analisis regresi.

Analisis regresi linier merupakan teknik dalam statistika yang digunakan untuk membentuk model hubungan antara variabel dependen dengan satu atau lebih variabel independen. Dalam analisis regresi dibedakan dua jenis variabel yaitu variabel dependen dan variabel independen. Regresi linier yang terdiri dari satu variabel dependen dan satu variable independen disebut regresi linier sederhana, sedangkan regresi linier yang terdiri dari satu variable dependen dan beberapa variable independen disebut regresi linier berganda. Hubungan antar variabel-variabel tersebut dapat dinyatakan dalam model matematika.

Pada bidang statistika memiliki metode untuk menemukan hubungan sebab akibat antar satu variabel dengan variabel lainnya. Analisis regresi adalah salah satu analisis data yang dapat kita gunakan dalam penelitian. Analisis regresi merupakan satu alat yang dapat digunakan dalam memprediksi permintaan dimana yang akan datang dengan berdasarkan data masa lalu, atau untuk mengetahui pengaruh suatu variable bebas (independent) terhadap satu variable terikat (dependent)

Analisis regresi memiliki dua macam analisis regresi, yaitu analisis regresi linier sederhana (tunggal) dan analisis regresi linier berganda. Kedua analisis tersebut berbeda satu sama lain. Analisi regresi linier sederhana (tunggal) digunakan hanya untuk satu varibel bebas (independent) terhadap satu variable terikat (dependent). Sedangkan regresi linier berganda digunakan untuk satu varibel terikat dan dua atau lebih variabel bebas (Riduwan & Sunarto, 2014). Pada makalah ini membahas tentang Prasyarat regresi linier sederhana (tunggal).


1.2 Rumusan Masalah

Rumusan masalah makalah ini sebagai berikut:

1.      Apa yang dimaksud dengan analisis regresi?

2.      Apa prasyarat dari Regresi Linier tunggal (Sederhana)?

3.      Bagaimana prosedur dalam analisis regresi tunggal?

4.      Apa prasyarat dari Regresi Linier majemuk (Berganda)?

5.      Bagaimana prosedur dalam analisis regresi majemuk?


1.3 Tujuan

Tujuan makalah ini sebagai berikut:

1.      Mengetahui pengertian dari analisis regresi.

2.      Untuk mengetahui Prasyarat dari regresi Linier tunggal (Sederhana)

3.      Mengetahui prosedur dalam analisis regresi tunggal

4.      Untuk mengetahui Prasyarat dari regresi Linier majemuk (Berganda)

6.      Mengetahui prosedur dalam analisis regresi majemuk

 

***


2.1 Analisis Regresi

Analisis regresi dalam statistika adalah salah satu metode untuk menentukan hubungan sebab–akibat antara satu variabel dengan variabel (-variabel) yang lain. Variabel “penyebab” disebut dengan bermacam-macam istilah: variabel penjelas, variabel eksplanatorik, variabel independen, atau secara bebas, variabel X (karena sering kali digambarkan dalam grafik sebagai absis, atau sumbu X). Variabel terkena akibat dikenal sebagai variabel yang dipengaruhi, variabel dependen, variabel terikat, atau variabel Y. Kedua variabel ini dapat merupakan variabel acak (random), namun variabel yang dipengaruhi harus selalu variabel acak.

Analisis regresi adalah salah satu analisis yang paling populer dan luas pemakaiannya. Hampir semua bidang ilmu yang memerlukan analisis sebab – akibat boleh dipastikan mengenal analisis ini. Analisis regresi dan analisis korelasi dikembangkan untuk mengkaji dan mengukur hubungan antara dua variabel atau lebih. Dalam analisis regresi dikembangkan persamaanestimasi untuk mendeskripsikan pola atau fungsi hubungan antara variabel – variabel. Sesuai dengan namanya" persamaan estimasi atau persamaan regresi itu digunakan untuk mengestimasinilai dari suatu variabel berdasarkan nilai variabel lainnya. Variabel yang di estimasi itu disebut variabel dependen (atau variabel terikat) sedangkan variabel yang diperkirakan memengaruhivariabel dependen itu disebut variabel independen (atau variabel bebas). Variabel dependen lazimnya dilukis pada sumbu Y (dan karenanya diberi simbol Y) sementara variabel independen dilukis pada sumbu X (dan karenanya diberi simbol X). Berdasarkan konsep ini" maka hubungan antara variabel Y dan X dapat diwakili dengan sebuah garis regresi. Di samping untuk mengestimasi, analisis regresi juga digunakan untuk mengukur tingkat ketergantungan (dependability) dari estimasi itu.

Analisis regresi mempelajari hubungan yang diperoleh dinyatakan dalam persamaanmatematika yang menyatakan hubungan fungsional antara variabel - variabel. Hubungan fungsional antara satu variabel prediktor dengan satu variabel kriterium disebut analisis regresisederhana (tunggal), sedangkan hubungan fungsional yang lebih dari satu variabel disebut analisis regresi ganda.

 

2.2 Prasyarat Regresi linier Sederhana

 Seorang peneliti yang menganalisis data penelitiannya dengan analisa regresi, harus mengacu kepada kriteria atau persyaratan agar hasil penelitiannya benar-benar dapat diterima masyarakat. Kriteria yang harus dipenuhi tersebut adalah instrumen penelitian (kuesioner) terlebih dahulu dilakukan uji validitas dan reliabilitas kemudian dilakukan uji asumsi klasik dan selanjutnya uji hipotesis (uji t dan uji F), membuat persamaan regresi dan menganalisis koefisien determinasi (R2). Model kelayakan regresi linier didasarkan pada hal-hal sebagai berikut:

1.      Model regresi dikatakan layak jika angka signifikansi pada ANOVA sebesar < 0,05.

2.  Prediktor yang digunakan sebagai variabel bebas harus layak. Kelayakan ini diketahui jika angka Standard Error of Estimate < Standard Deviation

3.   Koefesien regresi harus signifikan. Pengujian dilakukan dengan Uji t. Koefesien regresi signifikan jika thitung > ttabel (nilai kritis). 

4.    Tidak boleh terjadi multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat tinggi atau sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk regresi linier berganda dengan variabel bebas lebih dari satu. 

5.      Tidak terjadi otokorelasi. Terjadi otokorelasi jika angka Durbin dan Watson (DB) sebesar < 1 dan > 3. 

6.  Keselerasan model regresi dapat diterangkan dengan menggunakan nilai rm2 semakin besar nilai tersebut maka model semakin baik. Jika nilai mendekati 1 maka model regresi semakin baik. Nilai rm2 mempunyai karakteristik diantaranya: 

a.       Selalu positif

b.      Nilai rm2 maksimal sebesar 1. Jika Nilai r2 sebesar 1 akan mempunyai arti kesesuaian yang sempurna. Maksudnya seluruh variasi dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya jika rm2 sama dengan 0, maka tidak ada hubungan linier antara X dan Y.

7.     Terdapat hubungan linier antara variabel bebas (X) dan variabel tergantung (Y).

8.     Data harus berdistribusi normal.

9.     Data berskala interval atau rasio.

10. Kedua variabel bersifat dependen, artinya satu variabel merupakan variabel bebas (disebut juga sebagai variabel prediktor) sedang variabel lainnya variabel tergantung (disebut juga sebagai variabel response) (Arnita, 2013 : Hal : 143-144).  

Secara ringkas bahwa untuk menganalisis suatu penelitian dengan menggunakan analisis regresi, maka terlebih dahulu dilakukan beberapa uji persyaratan yang sering dikenal dengan uji asumsi klasik, yaitu:

 

1. Uji Normalitas 

Kolmogorov–Smirnov test (K-S test) merupakan pengujian statistik non-parametrik yang paling mendasar dan paling banyak digunakan. Pertama kali diperkenalkan dalam makalahnya Andrey Nikolaevich Kolmogorov pada tahun 1933 (Kolmogorov, A. N., 1992) dan kemudian ditabulasikan oleh Nikolai Vasilyevich Smirnov pada tahun 1948 (Smirnov, N., 1948). K-S test dimanfaatkan untuk uji satu sampel (one-sample test) yang memungkinkan perbandingan suatu distribusi frekuensi dengan beberapa distribusi terkenal, seperti distribusi normal (Stephens, 1992; Biswas, Ahmad, Molla, Hirose & Nasser, 2008). 

Uji normalitas bertujuan untuk mengetahui normal atau tidaknya suatu distribusi data. Dasar pengambilan keputusan dari uji normalitas adalah : jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal, maka model regresi memenuhi asumsi normalitas. Selain itu dinyatakan normal apabila nilai probabilitas signifikansi > α (0,05) (Sarjono dan Julianita, 2011). 

Uji normalitas menggunakan uji One-Sample Kolmogorov-Smirnov Test. Hasilnya dengan melihat nilai Asymp. Sig. (2-tailed), dinyatakan data berdistribusi normal apabila nilai Asymp. Sig. (2-tailed) > 0,05, dan sebaliknya data tidak berdistribusi normal apabila nilai Asymp. Sig. (2-tailed) < 0,05. Grafik untuk data dinyatakan berdistribusi normal apabila titik-titik data-data berada pada kisaran garis normal yang memenuhi batas atas dan batas bawah. Semakin mendekat pada garis normal, maka data berdistribusi normal seperti tampak pada gambar berikut ini :


Selain itu apabila kita menggunakan sebuah ilustrasi maka akan terlihat seperti gambar di bawah ini dimana area hijau untuk area p-value dan area berarsir merah untuk area α. Data normal jika area hijau lebih luas atau menutupi area α, sebaliknya jika data tidak normal area hijau tidak lebih luas dari area α . 


2. Uji Multikolieritas 

Uji multikolinearitas adalah uji yang dilakukan untuk memastikan apakah di dalam sebuah model regresi ada interkorelasi atau kolinearitas antar variabel bebas. Interkorelasi adalah hubungan yang linier atau hubungan yang kuat antara satu variabel bebas atau variabel prediktor dengan variabel prediktor lainnya di dalam sebuah model regresi. Interkorelasi itu dapat dilihat dengan nilai koefisien korelasi antara variabel bebas, nilai VIF dan Tolerance, nilai Eigenvalue dan Condition Index, serta nilai standar error koefisien beta atau koefisien regresi parsial. Model regresi yang baik seharusnya tidak terjadi korelasi diantara variabel bebas (independent variable). Uji multikolinieritas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independen). Untuk menguji multikolinieritas dengan cara melihat nilai VIF masing-masing variabel independen, jika nilai VIF < 10, maka dapat disimpulkan data bebas dari gejala multikolinieritas (Ghozali, 2011 : Hal. 105-106). 

3. Uji Heteroskedastisitas 

Model regresi yang baik adalah terjadi homoskedastisitas dalam model, atau dengan perkataan lain tidak terjadi heteroskedastisitas. Pendeteksian terhadap gejala heteroskedastisitas menggunakan metode Glejser. Dasar pengambilan keputusan dari uji heteroskedastisitas adalah tidak terjadi gejala heteroskedastisitas apabila nilai probabilitas signifikansi > α (0.05) (Sarjono dan Julianita, 2011 : Hal. 66).

4. Uji Autokorelasi

Uji  Autokorelasi  adalah  sebuah  analisis  statistik  yang  dilakukan  untuk mengetahui  adakah  korelasi  variabel  yang  ada  di  dalam  model  prediksi  dengan perubahan  waktu.  Oleh  karena  itu,  apabila  asumsi  autokorelasi  terjadi  pada  sebuah model prediksi, maka nilai disturbance tidak lagi berpasangan secara bebas, melainkan  berpasangan  secara  autokorelasi.  Dalam  kesempatan  ini,  kita  hanya  akan fokus  pada  tutorial  uji  autokorelasi  dengan  SPSS.  Namun  prinsip  penting  lainnya

tetap akan kami bahas secara singkat dan padat serta mudah dipahami. Uji autokorelasi  di  dalam  model  regresi  linear,  harus  dilakukan  apabila  data  merupakan data time series atau runtut waktu. Sebab yang dimaksud dengan autokorelasi sebenarnya adalah: sebuah nilai pada sampel atau observasi tertentu sangat dipengaruhi  oleh  nilai  observasi  sebelumnya.  Autokorelasi  adalah  terjadi  korelasi antara observasi ke-i dengan observasi ke-i-1.

5. Uji Linearitas

Uji  linearitas  dipergunakan  untuk  melihat  apakah  model  yang  dibangun mempunyai  hubungan  linear  atau  tidak.  Uji  ini  jarang  digunakan  pada  berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan  antara  variabel  bebas  dengan  variabel  terikatnya  adalah  linear.  Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.  Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji  linearitas  tidak  dapat  digunakan  untuk  memberikan  adjustment  bahwa  hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin Watson, Ramsey Test atau uji Lagrange Multiplier.

6. Data Outlier

Data Outlier disebut juga dengan data pencilan. Pengertian dari Outlier adalah  data observasi yang muncul dengan nilai-nilai ekstrim, baik secara univariat ataupun  multivariat.  Yang  dimaksud  dengan  nilai-nilai  ekstrim  dalam  observasi  adalah  nilai  yang jauh atau beda sama sekali dengan sebagian besar nilai lain dalam kelompoknya. Misalkan nilai ujian siswa dalam satu kelas yang berjumlah 40 siswa, sebanyak  39  siswa  mendapatkan  nilai  ujian  dalam  kisaran  70  sampai  80.  Kemudian ada 1 siswa yang nilainya sangat melenceng dari lainnya, yaitu mendapatkan nilai 30. Nah,  tentunya  1  siswa  tersebut  memiliki  nilai  ekstrem  sehingga  disebut  sebagai pencilan. Data pencilan dalam penelitian harus mendapatkan perlakuan khusus, karena  dapat  menyebabkan  terjadinya  bias  pada  hasil  penelitian.  Namun  semuanya masih tergantung pada tujuan penelitian, sebab apabila nilai-nilai ekstrim yang  dimaksud memang diupayakan untuk dinilai keberadaannya atau dinilai fenomenanya, maka pencilan tersebut dibiarkan saja. Namun apabila tujuan penelitian adalah  untuk  generalisasi,  apalagi  untuk  menentukan  sebuah  model  prediksi  seperti dalam regresi linear, maka data tersebut harus mendapatkan perlakuan khusus. Apakah  perlakuan  tersebut?  yaitu  kita  bisa  melakukan  transformasi  data  jika  nilai ekstrim  masih  bisa  dikurangi  jaraknya  dengan  kelompok  yang  lainnya.  Jika  terlalu jauh, maka anda bisa mengeluarkan data yang menyimpang tersebut dari penelitian

2.3 Prosedur dalam Analisis Regresi Tunggal

Proses analisis regresi tunggal memiliki beberapa tahapan dan dapat menggunakan cara manual maupun menggunakan bantuan aplikasi SPSS.

1.      Analisis Regresi Tunggal Manual

Berikut    adalah    langkah    langkah    analisis    regresi    tunggal (Baihaqi,dkk, 2019):

a.       Hitung X2 , XY dan total dari masing-masingnya dengan membuat tabel penolong

Data (n)

Variabel Bebas (X)

Variabel terikat (Y)

XY

X2

1

 

 

 

 

2

 

 

 

 

3

 

 

 

 

 

 

 

 

n

 

 

 

 

Jumlah

ΣX

ΣY

ΣXY

Σ X2

 

b.      Menghitung nilai a dan b berdasarkan persamaan berikut


c.       Membuat model persamaan regresi linier

𝑦 = 𝑎 + 𝑏𝑥

Koefisien b dinamakan koefisien arah regresi dan menyatakan perubahan rata-rata variabel Y untuk setiap perubahan variabel X sebesar satu satuan. Perubahan ini merupakan pertambahan bila b bertanda positif dan penurunan bila b bernilai negatfe. Sedangkan koefisien a merupakan nilai konstanta harga Y jika X sama dengan nol

d.      Membuat diagram pencar (Scatter plot) dari data

Diagram pencar digunakan untuk mengungkapkan hubungan linier antar variabel, dimana poin poin dalam diagram disekitar garis lurus akan menunjukkan hubungan lineritas antar variabel bebas dan terikat

e.       Membuat grafik garis lurus

Grafik ini digunakan untuk membuktikan kebenaran dari hubungan regresi tunggal pada persamaan

𝑦 = 𝑎 + 𝑏𝑥

Jika hubungan antara variabel bebas (X) dan variabel terikat (Y) benar membentuk garis lurus, kemudian variabel dihubungkan dengan persamaan tersebut maka a akan menunjukkan nilai Y (variabel terikat) pada saat X (variabel bebas) nol dan b menunjukkan kemiringan garis atau perubahan Y pada setiap perubahan X

2.      Analisis Regresi SPSS

Berikut adalah langkah langkah analisis regresi tunggal (Pasaribu, dkk, 2020):

a.       Buka lembar kerja SPSS kemudian isi data di Data View dan di sampingnya terdapat Variabel View lalu klik kanan

Gambar 2.1 Tampilan Variabel View

b.      Untuk Name kita buat variabel yang kita gunakan x dan y, label kita ketikkan sesuai dengan variabel penelitian yang kita inginkan

 

Gambar 2.2 Tampilan Variabel Penelitian

c.   Klik Data View, kemudian masukkan data dengan ketentuan variabel bebas atau dependent adalah x dan variabel terikat atau independent adalah y

d.      Pastikan data yang telah dimasukkan sudah tepat karena jika terjadi kesalahan pada proses penginputan data, hasil SPSS tidak akan mucul sesuai dengan harapan yang kita inginkan

e.       Klik menu Analyze kemudian klik Regression lalu kita klik Linear

                     


Gambar 2.3 Tampilan Menu Analyze

f.       Setelah itu akan muncul Linear Regression

Gambar 2.4 Tampilan Kotak Dialog Linear Regression


g.      Pada kota Linear Regression masukkan variabel terikat y pada kolom Dependent dan dan variabel bebas x pada kolom Independent

Gambar 2.5 Tampilan Cara Memasukkan Variabel


h.      Pilih Statistic, kemudian centang pada kotak Estimates lalu Model fit

Gambar 2.6 Tampilan Estimates

i.        Kemudian klik Continue dan terakhir klik OK

Pasaribu, dkk (2020) menjelaskan bahawa dalam pengambilan keputusan menggunakan softwere SPSS untuk uji regresi linier sederhana dapat mengaju pada dua hal yaitu :

a.       Dengan membandingkan nilai t hitung dengan t tabel

b.      Dengan membandingkan nilai signifikansi atau sig. dengan nilai probabilitas 0,05


Catatan keputusannya :

a.       Jika nilai t hitung lebih besar dari t tabel maka dapat disimpulkan bahwa variabel bebas berpengaruh terhadap variabel terikat

b.      Jika nilai t hitung lebih kecil dari t tabel maka dapat disimpulkan bahwa variabel bebas tidak berpengaruh terhadap variabel terikat

c.       Jika nilai signifikansi lebih besar dari nilai probabilitas 0,05, dapat disimpulkan bahwa variabel bebas tidak berpengaruh secara signifikan terhadap variabel terikat

d.      Jika nilai signifikansi lebih kecil dari nilai probabilitas 0,05, dapat disimpulkan bahwa variabel bebas berpengaruh secara signifikan terhadap variabel terikat

 

2.4  Prasyarat Analisis Regresi Berganda

Sebelum melakukan analisis regresi berganda untuk uji hipotesis penelitian, maka ada beberapa persyaratan atau asumsi klasik yang harus terpenuhi. Agar model prediksi yang dihasilkan nantinya bersifat BLUE (Best Linear Unbiased Estimation). Persyaratan atau asumsi ini dibuktikan melalui serangkaian uji asumsi klasik mencakup:

1.       Data Interval atau Rasio

Skala data semua variable terutama variabel terikat adalah interval atau rasio. Asumsi ini tidak perlu diuji, cukup dipastikan bahwa data yang digunakan adalah data interval atau rasio (numerik atau kuantitatif).

2.       Uji Linearitas

Variabel bebas berhubungan dengan variabel terikat. Asumsi linearitas diuji dengan uji linearitas regresi, misalnya dengan kurva estimasi.

Dengan kurva estimasi maka dapat ditentukan ada hubungan linear atau tidak dengan melihat nilai p value linearitas. Jika p value < 0,05 maka terdapat hubungan yang linear antara predictor dan response.

3.       Normalitas residual

Residual adalah beda antara y dengan y prediksi. Dalam hal ini, y adalah variabel terikat, sedangkan y prediksi adalah y hasil persamaan regresi yang dibuat. Dengan demikian, residual dibangun dengan rumus y – y prediksi. Asumsi normalitas pada regresi linear adalah pada residualnya, bukan pada data per variabel.

Uji asumsi normalitas regresi linear dapat diuji dengan berbagai metode uji normalitas, seperti uji Shapiro wilk, Lilliefors, atau Kolmogorov smirnov, Anderson darling, Ryan joiner, Shapiro francia, Jarque bera, Skewness kurtosis test, dan berbagai jenis uji normalitas lainnya.

4.       Non Outlier

Outlier disebut dengan data pencilan atau data yang nilainya extreme atau lain dari pada yang lainnya. Batasan outlier tidak bisa dilihat dari nilai absolut studentized

residual. Jika absolut studentized residual > 3, maka sampel atau observasi yang dimaksud menjadi outlier.

5.       Homoskedastisitas

Homoskedastisitas adalah sebuah kondisi saat varians dari error bersifat konstan atau tetap. Dengan kata lain, varians dari error bersifat identic untuk setiap pengamatan.

Kebalikan dari homoskedastisitas adalah heteroskedastisitas. Model regresi linear berganda yang baik adalah model yang bebas dari kondisi heteroskedastisitas.

Untuk menguji homoskedastisitas regresi linear berganda, dapat digunakan uji homoskedastisitas dari glejser, uji park, uji white, spearman heteroskedastisitas, dan masih banyak uji lainnya.

6.       Non Multikolinearitas

Multikolinearitas adalah keadaan saat terdapat interkorelasi atau korelasi kuat antarvariabel bebas di dalam model. Dinyatakan ada interkorelasi jika korelasi antarvariabel bebas di dalam model regresi linear berganda > 0,8. Beberapa pakar menggunakan batasan lebih dari 0,9.

Cara lain yang lebih objektif adalah dengan menggunakan nilai variance inflating factor (VIF) dan tolerance. Dikatakan ada multikolinearitas jika nilai VIF > 10 dan/atau nilai tolerance < 0,01.

Berdasarkan uraian di atas, maka jelas sekali bahwa asumsi multikolinearitas hanya ada dalam regresi linear berganda dan tidak ada pada regresi linear sederhana. Sebab pada regresi linear berganda ada lebih dari satu variabel bebas, sedangkan pada regresi linear sederhana hanya ada satu variabel bebas.

7.       Non Autokorelasi

Autokorelasi dapat diartikan bahwa terdapat korelasi antar waktu. Sehingga bisa diartikan dengan mudah bahwa autokorelasi ini sering terjadi pada regresi linear berganda dengan data time series atau runtun waktu dan jarang sekali terjadi pada data cross section.

Data runtun waktu ini, misalnya data return of investment (ROI) atas saham milik sebuah perusahaan per bulan dari tahun 2012 hingga 2017. Sedangkan data cross section, misalnya data hasil dari kuesioner yang disebarkan pada semua siswa sebuah kelas, yaitu hanya diukur satu kali saja.

Uji autokorelasi ini bisa diuji dengan menggunakan nilai Durbin Watson (DW) dan run test.

 

2.5 Prosedur dalam Analisis Regresi Majemuk

Tujuan umum dari regresi majemuk adalah untuk mempelajari lebih lanjut tentang hubungan antara beberapa variabel independen atau prediktor dan variabel dependen atau kriteria. Dalam penelitian ilmu sosial dan alam beberapa prosedur regresi sangat banyak digunakan. Misalnya, peneliti pendidikan mungkin ingin mempelajari prediktor kesuksesan terbaik perguruan tinggi. Ahli biologi mungkin ingin menentukan prediktor terbaik untuk kelangsungan hidup ikan di air yang tercemar. Psikolog mungkin ingin menentukan variabel kepribadian mana yang terbaik memprediksi penyesuaian sosial. Sosiolog mungkin ingin mengetahui yang mana dari beberapa sosial indikator terbaik memprediksi apakah kelompok imigran baru akan beradaptasi dengan yang baru atau tidak situasi.

 

Uji regresi linier majemuk sangat membantu untuk mengetahui pengaruh secara serempak (simultan) baik kualitas maupun kuantitas dari variable-variabel bebas terhadap variable tak bebas. Hasil model persamaan regresi dapat dipergunakan sebagai pedoman untuk memprediksi hubungan antar variabel diluar data yang dijadikan sampel dalam suatu populasi.

Untuk menjelaskan langkah langkah dalam melakukan uji regresi majemuk akan diberikan sebuah contoh kasus.

 

CONTOH KASUS:

Catatan rumah sakit memberikan data pada volume udara eksiprasi (forced expiratory air volume) (liter), kapasitas vital (liter) dan kapasitas paru total (liter). Forced expiratory air volume tergantung pada kapasitas vital dan kapasitas paru total. Hitung koefisien regresi berganda dan rumuskan persamaan regresi berganda.

Dalam contoh ini hanya tiga variabel yang diberikan. Dari ketiganya, forced expiratory air volume adalah variabel dependen dan kapasitas vital dan kapasitas paru total variabel independen.


Langkah 1 Masukkan nama variabel dalam Variable view dan data dalam Data editor. Langkah 2 Pilih Analyze dari menu utama, kemudian Regression dan kemudian pilih Linear     untuk membuka Kotak dialog Linear Regression.


Langkah 3 Pindahkan forced expiratory air volume ke kotak Dependent dan Vital kapasitas dan Total kapasitas paru-paru ke kotak Independen. (Gambar 2)

Langkah 4: klik Statistics untuk membuka Linear Regression: kotak dialog Statistics. Klik pada Estimates, Model Fit dan Descriptive kemudian klik Continue (Gambar 3).

Langkah 5: klik Plots untuk membuka Linear Regression: Plots dan pindahkan *ZRESID (variabel dependen atau variabel kriteria) ke kotak Y dan *ZPRED (variabel Independen atau variabel prediksi). Kemudian Continue (Gambar 4)


Langkah 6 : klik OK untuk menjalankan Analisis,


Hasil Output sebagai berikut

Output 1.

 

Descriptive Statistics

 

Mean

Std. Deviation

N

VitalCapasity

2.027

.7353

15

TotalLugCapasity

3.633

.6758

15

ExpiratoryAirVolume

1.427

.5861

15


Output 2.

Model Summaryb

 

 

 

Model

 

 

R

 

 

R Square

Adjusted             R Square

Std. Error of the Estimate

1

.833a

.694

.643

.4390

a. Predictors: (Constant), ExpiratoryAirVolume, TotalLugCapasity

b. Dependent Variable: VitalCapasity


Output 3.

 


Output 4

Residuals Statisticsa

 

Minimum

Maximum

Mean

Std. Deviation

N

Predicted Value

1.192

3.195

2.027

.6127

15

Residual

-.4940

.9880

.0000

.4065

15

Std. Predicted Value

-1.362

1.906

.000

1.000

15

Std. Residual

-1.125

2.250

.000

.926

15

a. Dependent Variable: VitalCapasity

 

1.      Interpretasi Output

Interpretasi output sebagai berikut.

a)        Pada Output 1 memberikan statistik deskriptif yaitu mean dan standar deviasi untuk 3 variabel dan jumlah variat. Mean volume expiratory adalah 1.427 dengan standar deviasi 0.5861 (liter/detik), mean kapasitas vital adalah 2.027 dengan standar deviasi 0.7353 (liter),dan mean kapasitas total paru-paru adalah 3.633 dengan standar deviasi 0.6758 (liter).

b)       Pada Output 2, Model Summaryb . nilai 0.870 yang berada di kolom R adalah multiple correlation coefficient. Ketiga variabel ini berkorelasi secara signifikan.

c)        Pada Output 3, Berdasarkan tabel output “Coefficients” pada bagian “Collinearity Statistics” diketahui nilai Tolerance untuk variabel Total long Capacity (X1) dan Expiratory capacity (X2) adalah 0,749 lebih besar dari 0,10. Sementara, nilai VIF untuk variabel Total Long Capacity (X1) dan Expiratory Capacity (X2) adalah 1.335 < 10,00. Maka berdasarkan pada dasar pengambilan keputusan dalam uji multikolunearitas dapat disimpulkan bahwa tidak terjadi gejala multikolinearitas dalam model regresi.

Yj = ɑ + b1 X1j + b2 X2j

Oleh karena itu, persamaan regresi berganda diformulasikan sebagai

 Yj = -0.796 + 0.288 X1j + 0.581 X2j

Pada Output 4, memberikan residual statistics dalam kasus yang dibahas, mean dan standar deviation untuk memprediksi nilai variabel dependen yang diberikan



***

            3. 1Kesimpulan 

Analisis regresi merupakan metode statistika yang amat banyak digunakan dalam peneltian. Secara umum regresi adalah studi mengenai ketergantungan satu variabel (variabel tak bebas/ variabel respon) dengan satu atau lebih variabel bebas/ variabel penjelas.

Sebelum melakukan analisis regresi berganda untuk uji hipotesis penelitian, maka ada beberapa persyaratan atau asumsi klasik yang harus terpenuhi, diantaranya yaitu data interval atau rasio, linearitas, normalitas, non outlier, homoskedastisitas, non multikolinearitas dan non autokorelasi.

Regresi linier sederhana atau regresi tunggal digunakan untuk mengetahui hubungan antar variabel dan Tujuan umum dari regresi majemuk adalah untuk mempelajari lebih lanjut tentang hubungan antara beberapa variabel independen atau prediktor dan variabel dependen atau kriteria.

 

3.2 Saran 

Dalam melakukan sebuah penelitian, seorang peneliti harus tahu prasyarat Analisis regresi linier dan majemuk dapat membantu peneliti dalam menganalisis data dan agar tidak terjadi kekeliruan dalam menganalisis sebuah data .

 

DAFTAR PUSTAKA

Arnita, (2013). Pengantar Statistika, Bandung : Citapustaka Media Perintis.

Cohen, L., Manion, L., & Morrison, K. 2007. Research Methods in Education (6th ed.). London, New York: Routllege Falmer

Harlan, J. (2018). Analisis Regresi Linear. Depok: Gunadarma.

Riduwan, & Sunarto. (2014). Pengantar Statistika untuk Penelitian Pendidikan, Sosial, Ekonomi, dan Bisnis. Bandung: Alfabeta.

Schreiber, James B., and Kimberly Asner-Self. 2011. Educational Research. United States of America: John Wiley & Sons, Inc.

Siregar, S. (2015). Statistika Terapan Untuk Perguruan Tinggi. Jakarta:

Prenadamedia Group.

Sukestiyarno. 2008. Workshop Olah Data Penelitian dengan SPSS. Semarang: UNNES

Tri Basuki, Agus dan Nano Prawoto. 2016. Analisis Regresi Dalam Penelitian Ekonomi & Bisnis: Dilengkapi Aplikasi SPSS & Eviews. Jakarta: Rajawali Pers


 

Komentar

Postingan populer dari blog ini

NOTULA (UJI KORELASI DAN UJI REGRESI)