ANALISIS REGRESI
1.1 Latar Belakang
Sebuah penelitian yang lakukan oleh seorang peneliti pasti melakukan
kegiatan menganalisis data-data yang diperoleh dari pengumpulan data. Setiap
data yang didapatkan diperlukan analisis untuk memperoleh hasil yang dicari
untuk memberikan suatu kesimpulan dari berbagai permasalahan yang sedang
diteliti. Salah satu analisis yang bisa digunakan oleh peneliti dalam
menganalisis data yaitu dengan analisis regresi.
Analisis regresi linier merupakan teknik dalam statistika yang digunakan
untuk membentuk model hubungan antara variabel dependen dengan satu atau lebih
variabel independen. Dalam analisis regresi dibedakan dua jenis variabel yaitu
variabel dependen dan variabel independen. Regresi linier yang terdiri dari
satu variabel dependen dan satu variable independen disebut regresi linier
sederhana, sedangkan regresi linier yang terdiri dari satu variable dependen
dan beberapa variable independen disebut regresi linier berganda. Hubungan antar
variabel-variabel tersebut dapat dinyatakan dalam model matematika.
Pada bidang statistika memiliki metode untuk menemukan hubungan sebab
akibat antar satu variabel dengan variabel lainnya. Analisis regresi adalah
salah satu analisis data yang dapat kita gunakan dalam penelitian. Analisis
regresi merupakan satu alat yang dapat digunakan dalam memprediksi permintaan
dimana yang akan datang dengan berdasarkan data masa lalu, atau untuk
mengetahui pengaruh suatu variable bebas (independent)
terhadap satu variable terikat (dependent).
Analisis regresi memiliki dua macam analisis regresi, yaitu analisis
regresi linier sederhana (tunggal) dan analisis regresi linier berganda. Kedua
analisis tersebut berbeda satu sama lain. Analisi regresi linier sederhana
(tunggal) digunakan hanya untuk satu varibel bebas (independent) terhadap satu variable terikat (dependent). Sedangkan regresi linier berganda digunakan untuk satu
varibel terikat dan dua atau lebih variabel bebas (Riduwan & Sunarto,
2014). Pada makalah ini membahas tentang Prasyarat regresi linier sederhana
(tunggal).
1.2 Rumusan Masalah
Rumusan masalah makalah ini
sebagai berikut:
1.
Apa yang dimaksud dengan analisis regresi?
2.
Apa prasyarat dari Regresi Linier
tunggal (Sederhana)?
3.
Bagaimana prosedur dalam analisis
regresi tunggal?
4.
Apa prasyarat dari Regresi Linier majemuk
(Berganda)?
5.
Bagaimana prosedur dalam analisis
regresi majemuk?
1.3 Tujuan
Tujuan makalah ini sebagai
berikut:
1.
Mengetahui pengertian dari
analisis regresi.
2.
Untuk mengetahui Prasyarat dari
regresi Linier tunggal (Sederhana)
3.
Mengetahui prosedur dalam analisis
regresi tunggal
4.
Untuk mengetahui Prasyarat dari
regresi Linier majemuk (Berganda)
6.
Mengetahui prosedur dalam analisis
regresi majemuk
***
2.1 Analisis Regresi
Analisis regresi dalam statistika adalah salah
satu metode untuk menentukan hubungan
sebab–akibat antara satu variabel dengan variabel (-variabel) yang lain. Variabel
“penyebab” disebut dengan bermacam-macam istilah:
variabel penjelas, variabel
eksplanatorik, variabel independen, atau secara bebas,
variabel X (karena
sering kali digambarkan
dalam grafik sebagai absis, atau sumbu X). Variabel terkena akibat dikenal sebagai variabel yang dipengaruhi,
variabel dependen, variabel terikat, atau variabel Y. Kedua variabel
ini dapat merupakan
variabel acak (random),
namun variabel yang dipengaruhi
harus selalu variabel acak.
Analisis regresi adalah salah satu analisis yang paling populer
dan luas pemakaiannya. Hampir semua bidang ilmu
yang memerlukan analisis sebab – akibat boleh dipastikan mengenal analisis ini. Analisis regresi
dan analisis korelasi
dikembangkan untuk mengkaji dan mengukur hubungan antara dua variabel
atau lebih. Dalam analisis regresi
dikembangkan persamaanestimasi untuk mendeskripsikan pola atau fungsi hubungan antara variabel –
variabel. Sesuai dengan namanya" persamaan estimasi atau persamaan
regresi itu digunakan
untuk mengestimasinilai dari suatu variabel
berdasarkan nilai variabel
lainnya. Variabel yang di estimasi
itu disebut variabel
dependen (atau variabel
terikat) sedangkan variabel
yang diperkirakan memengaruhivariabel dependen itu disebut
variabel independen (atau variabel bebas). Variabel
dependen lazimnya dilukis pada sumbu Y (dan karenanya diberi simbol Y) sementara variabel independen dilukis pada
sumbu X (dan karenanya diberi simbol X). Berdasarkan
konsep ini" maka hubungan antara variabel Y dan X dapat diwakili dengan sebuah garis regresi. Di samping untuk
mengestimasi, analisis regresi juga digunakan
untuk mengukur tingkat
ketergantungan (dependability)
dari estimasi itu.
Analisis regresi mempelajari hubungan yang diperoleh
dinyatakan dalam persamaanmatematika yang menyatakan hubungan
fungsional antara variabel
- variabel. Hubungan
fungsional antara satu variabel prediktor
dengan satu variabel
kriterium disebut analisis
regresisederhana (tunggal), sedangkan hubungan fungsional yang lebih dari satu
variabel disebut analisis regresi ganda.
2.2 Prasyarat Regresi linier Sederhana
Seorang peneliti yang menganalisis data penelitiannya dengan analisa regresi, harus mengacu kepada kriteria atau persyaratan agar hasil penelitiannya benar-benar dapat diterima masyarakat. Kriteria yang harus dipenuhi tersebut adalah instrumen penelitian (kuesioner) terlebih dahulu dilakukan uji validitas dan reliabilitas kemudian dilakukan uji asumsi klasik dan selanjutnya uji hipotesis (uji t dan uji F), membuat persamaan regresi dan menganalisis koefisien determinasi (R2). Model kelayakan regresi linier didasarkan pada hal-hal sebagai berikut:
1. Model regresi dikatakan layak jika
angka signifikansi pada ANOVA sebesar < 0,05.
2. Prediktor yang digunakan sebagai
variabel bebas harus layak. Kelayakan ini diketahui jika angka Standard
Error of Estimate < Standard Deviation.
3. Koefesien regresi harus signifikan.
Pengujian dilakukan dengan Uji t. Koefesien regresi signifikan jika thitung
> ttabel (nilai kritis).
4. Tidak boleh terjadi
multikolinieritas, artinya tidak boleh terjadi korelasi yang sangat tinggi atau
sangat rendah antar variabel bebas. Syarat ini hanya berlaku untuk regresi
linier berganda dengan variabel bebas lebih dari satu.
5. Tidak terjadi otokorelasi. Terjadi
otokorelasi jika angka Durbin dan Watson (DB) sebesar < 1 dan > 3.
6. Keselerasan model regresi dapat
diterangkan dengan menggunakan nilai rm2 semakin besar nilai tersebut maka
model semakin baik. Jika nilai mendekati 1 maka model regresi semakin baik.
Nilai rm2 mempunyai karakteristik diantaranya:
a. Selalu positif
b. Nilai rm2 maksimal sebesar 1. Jika Nilai r2
sebesar 1 akan mempunyai arti kesesuaian yang sempurna. Maksudnya seluruh
variasi dalam variabel Y dapat diterangkan oleh model regresi. Sebaliknya jika
rm2 sama dengan 0, maka tidak ada hubungan linier antara X dan Y.
7. Terdapat hubungan linier antara
variabel bebas (X) dan variabel tergantung (Y).
8. Data harus berdistribusi normal.
9. Data berskala interval atau rasio.
10. Kedua variabel bersifat dependen, artinya satu variabel merupakan variabel bebas (disebut juga sebagai variabel prediktor) sedang variabel lainnya variabel tergantung (disebut juga sebagai variabel response) (Arnita, 2013 : Hal : 143-144).
Secara ringkas bahwa untuk menganalisis suatu penelitian
dengan menggunakan analisis regresi, maka terlebih dahulu dilakukan beberapa
uji persyaratan yang sering dikenal dengan uji asumsi klasik, yaitu:
1. Uji
Normalitas
Kolmogorov–Smirnov test (K-S
test) merupakan pengujian statistik non-parametrik yang paling mendasar dan
paling banyak digunakan. Pertama kali diperkenalkan dalam makalahnya Andrey
Nikolaevich Kolmogorov pada tahun 1933 (Kolmogorov, A. N., 1992) dan kemudian
ditabulasikan oleh Nikolai Vasilyevich Smirnov pada tahun 1948 (Smirnov, N.,
1948). K-S test dimanfaatkan untuk uji satu sampel (one-sample test)
yang memungkinkan perbandingan suatu distribusi frekuensi dengan beberapa
distribusi terkenal, seperti distribusi normal (Stephens, 1992; Biswas, Ahmad,
Molla, Hirose & Nasser, 2008).
Uji normalitas bertujuan untuk
mengetahui normal atau tidaknya suatu distribusi data. Dasar pengambilan
keputusan dari uji normalitas adalah : jika data menyebar di sekitar garis
diagonal dan mengikuti arah garis diagonal, maka model regresi memenuhi asumsi
normalitas. Selain itu dinyatakan normal apabila nilai probabilitas
signifikansi > α (0,05) (Sarjono dan Julianita, 2011).
Uji normalitas menggunakan uji One-Sample
Kolmogorov-Smirnov Test. Hasilnya dengan melihat nilai Asymp. Sig.
(2-tailed), dinyatakan data berdistribusi normal apabila nilai Asymp.
Sig. (2-tailed) > 0,05, dan sebaliknya data tidak berdistribusi normal
apabila nilai Asymp. Sig. (2-tailed) < 0,05. Grafik untuk data
dinyatakan berdistribusi normal apabila titik-titik data-data berada pada
kisaran garis normal yang memenuhi batas atas dan batas bawah. Semakin mendekat
pada garis normal, maka data berdistribusi normal seperti tampak pada gambar
berikut ini :
2. Uji Multikolieritas
Uji multikolinearitas adalah uji yang
dilakukan untuk memastikan apakah di dalam sebuah model regresi ada
interkorelasi atau kolinearitas antar variabel bebas. Interkorelasi adalah
hubungan yang linier atau hubungan yang kuat antara satu variabel bebas atau
variabel prediktor dengan variabel prediktor lainnya di dalam sebuah model
regresi. Interkorelasi itu dapat dilihat dengan nilai koefisien korelasi antara
variabel bebas, nilai VIF dan Tolerance, nilai Eigenvalue
dan Condition Index, serta nilai standar error koefisien beta
atau koefisien regresi parsial. Model regresi yang baik seharusnya tidak
terjadi korelasi diantara variabel bebas (independent variable). Uji
multikolinieritas bertujuan untuk menguji apakah model regresi ditemukan adanya
korelasi antar variabel bebas (independen). Untuk menguji multikolinieritas
dengan cara melihat nilai VIF masing-masing variabel independen, jika
nilai VIF < 10, maka dapat disimpulkan data bebas dari gejala
multikolinieritas (Ghozali, 2011 : Hal. 105-106).
3. Uji Heteroskedastisitas
Model regresi yang baik adalah
terjadi homoskedastisitas dalam model, atau dengan perkataan lain tidak terjadi
heteroskedastisitas. Pendeteksian terhadap gejala heteroskedastisitas
menggunakan metode Glejser. Dasar pengambilan keputusan dari uji
heteroskedastisitas adalah tidak terjadi gejala heteroskedastisitas apabila
nilai probabilitas signifikansi > α (0.05) (Sarjono dan Julianita, 2011 :
Hal. 66).
4. Uji Autokorelasi
Uji
Autokorelasi adalah sebuah
analisis statistik yang
dilakukan untuk mengetahui adakah
korelasi variabel yang
ada di dalam
model prediksi dengan perubahan waktu.
Oleh karena itu,
apabila asumsi autokorelasi
terjadi pada sebuah model prediksi, maka nilai disturbance
tidak lagi berpasangan secara bebas, melainkan
berpasangan secara autokorelasi.
Dalam kesempatan ini,
kita hanya akan fokus
pada tutorial uji
autokorelasi dengan SPSS.
Namun prinsip penting
lainnya
tetap akan kami bahas secara singkat dan padat serta mudah dipahami. Uji autokorelasi di dalam model regresi linear, harus dilakukan apabila data merupakan data time series atau runtut waktu. Sebab yang dimaksud dengan autokorelasi sebenarnya adalah: sebuah nilai pada sampel atau observasi tertentu sangat dipengaruhi oleh nilai observasi sebelumnya. Autokorelasi adalah terjadi korelasi antara observasi ke-i dengan observasi ke-i-1.
5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas. Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin Watson, Ramsey Test atau uji Lagrange Multiplier.
6. Data Outlier
Data Outlier
disebut juga dengan data pencilan. Pengertian dari Outlier adalah data observasi yang muncul dengan nilai-nilai
ekstrim, baik secara univariat ataupun
multivariat. Yang dimaksud
dengan nilai-nilai ekstrim
dalam observasi adalah
nilai yang jauh atau beda sama
sekali dengan sebagian besar nilai lain dalam kelompoknya. Misalkan nilai ujian
siswa dalam satu kelas yang berjumlah 40 siswa, sebanyak 39
siswa mendapatkan nilai
ujian dalam kisaran
70 sampai 80.
Kemudian ada 1 siswa yang nilainya sangat melenceng dari lainnya, yaitu
mendapatkan nilai 30. Nah, tentunya 1
siswa tersebut memiliki
nilai ekstrem sehingga
disebut sebagai pencilan. Data
pencilan dalam penelitian harus mendapatkan perlakuan khusus, karena dapat
menyebabkan terjadinya bias
pada hasil penelitian.
Namun semuanya masih tergantung
pada tujuan penelitian, sebab apabila nilai-nilai ekstrim yang dimaksud memang diupayakan untuk dinilai
keberadaannya atau dinilai fenomenanya, maka pencilan tersebut dibiarkan saja.
Namun apabila tujuan penelitian adalah
untuk generalisasi, apalagi
untuk menentukan sebuah
model prediksi seperti dalam regresi linear, maka data
tersebut harus mendapatkan perlakuan khusus. Apakah perlakuan
tersebut? yaitu kita
bisa melakukan transformasi
data jika nilai ekstrim
masih bisa dikurangi
jaraknya dengan kelompok
yang lainnya. Jika
terlalu jauh, maka anda bisa mengeluarkan data yang menyimpang tersebut
dari penelitian
2.3 Prosedur dalam Analisis Regresi Tunggal
Proses analisis regresi tunggal memiliki beberapa tahapan dan dapat menggunakan cara manual
maupun menggunakan bantuan
aplikasi SPSS.
1. Analisis Regresi Tunggal Manual
Berikut adalah langkah langkah analisis regresi tunggal (Baihaqi,dkk, 2019):
a.
Hitung X2 , XY dan total dari masing-masingnya dengan
membuat tabel penolong
|
Data (n) |
Variabel Bebas
(X) |
Variabel terikat
(Y) |
XY |
X2 |
|
1 |
|
|
|
|
|
2 |
|
|
|
|
|
3 |
|
|
|
|
|
… |
|
|
|
|
|
n |
|
|
|
|
|
Jumlah |
ΣX |
ΣY |
ΣXY |
Σ X2 |
b.
Menghitung nilai a dan b berdasarkan persamaan berikut
c.
Membuat model persamaan regresi
linier
𝑦 = 𝑎 + 𝑏𝑥
Koefisien b dinamakan koefisien arah regresi dan menyatakan perubahan rata-rata variabel Y untuk setiap perubahan variabel X sebesar satu satuan. Perubahan ini merupakan pertambahan bila b bertanda positif dan penurunan bila b bernilai negatfe. Sedangkan koefisien a merupakan nilai konstanta harga Y jika X sama dengan nol
d.
Membuat diagram
pencar (Scatter plot)
dari data
Diagram
pencar digunakan untuk mengungkapkan hubungan
linier antar variabel, dimana poin poin dalam diagram disekitar garis lurus akan menunjukkan hubungan lineritas
antar variabel bebas dan terikat
e.
Membuat grafik garis lurus
Grafik ini digunakan untuk membuktikan kebenaran
dari hubungan regresi
tunggal pada persamaan
𝑦 = 𝑎 + 𝑏𝑥
Jika hubungan antara variabel
bebas (X) dan variabel terikat (Y) benar membentuk garis lurus, kemudian
variabel dihubungkan dengan persamaan tersebut
maka a akan menunjukkan nilai Y (variabel
terikat) pada saat X
(variabel bebas) nol dan b menunjukkan kemiringan garis atau perubahan Y pada setiap perubahan X
2.
Analisis Regresi
SPSS
Berikut
adalah langkah langkah analisis regresi tunggal (Pasaribu, dkk, 2020):
a.
Buka lembar kerja SPSS kemudian isi data di Data View dan di sampingnya terdapat Variabel View lalu klik kanan
Gambar 2.1 Tampilan Variabel
View
b. Untuk Name kita buat variabel yang kita gunakan x dan y, label kita ketikkan sesuai dengan variabel penelitian yang kita inginkan
Gambar 2.2 Tampilan
Variabel Penelitian
c. Klik Data View, kemudian
masukkan data dengan ketentuan variabel bebas
atau dependent adalah x dan variabel terikat atau independent adalah
y
d.
Pastikan data yang telah
dimasukkan sudah tepat karena jika terjadi kesalahan
pada proses penginputan data, hasil SPSS tidak akan mucul sesuai
dengan harapan yang kita inginkan
e.
Klik menu Analyze kemudian
klik Regression lalu kita klik Linear
f.
Setelah itu akan muncul Linear
Regression
Gambar 2.4 Tampilan Kotak Dialog Linear Regression
g.
Pada kota Linear Regression
masukkan variabel terikat y pada kolom Dependent dan dan
variabel bebas x pada kolom Independent
Gambar 2.5 Tampilan Cara Memasukkan Variabel
h.
Pilih Statistic, kemudian centang pada kotak Estimates lalu Model fit
Gambar 2.6 Tampilan
Estimates
i.
Kemudian klik Continue dan terakhir klik OK
Pasaribu,
dkk (2020) menjelaskan bahawa dalam pengambilan keputusan menggunakan softwere SPSS untuk uji regresi linier
sederhana dapat mengaju pada dua hal yaitu :
a.
Dengan membandingkan nilai t hitung
dengan t tabel
b.
Dengan membandingkan nilai signifikansi atau sig. dengan nilai probabilitas 0,05
Catatan keputusannya :
a.
Jika nilai t hitung lebih
besar dari t tabel maka dapat disimpulkan bahwa variabel bebas berpengaruh terhadap variabel terikat
b.
Jika nilai t hitung
lebih kecil dari t tabel
maka dapat disimpulkan bahwa variabel bebas tidak berpengaruh terhadap variabel terikat
c.
Jika nilai signifikansi
lebih besar dari nilai probabilitas 0,05, dapat disimpulkan bahwa variabel bebas tidak berpengaruh secara
signifikan terhadap variabel terikat
d.
Jika nilai signifikansi
lebih kecil dari nilai probabilitas 0,05, dapat disimpulkan bahwa variabel
bebas berpengaruh secara signifikan terhadap
variabel terikat
2.4 Prasyarat Analisis
Regresi Berganda
Sebelum
melakukan analisis regresi berganda untuk uji hipotesis penelitian, maka ada beberapa persyaratan atau asumsi
klasik yang harus terpenuhi. Agar model prediksi
yang dihasilkan nantinya bersifat BLUE (Best Linear Unbiased Estimation). Persyaratan atau asumsi ini dibuktikan melalui
serangkaian uji asumsi
klasik mencakup:
1.
Data Interval atau Rasio
Skala data semua variable
terutama variabel terikat adalah interval atau rasio. Asumsi ini tidak perlu diuji, cukup dipastikan bahwa data yang
digunakan adalah data interval atau rasio (numerik atau kuantitatif).
2. Uji Linearitas
Variabel bebas berhubungan dengan
variabel terikat. Asumsi linearitas diuji dengan uji linearitas regresi, misalnya
dengan kurva estimasi.
Dengan kurva estimasi maka
dapat ditentukan ada hubungan linear atau tidak dengan melihat nilai p value linearitas. Jika p value
< 0,05 maka terdapat hubungan
yang linear antara predictor dan response.
3. Normalitas residual
Residual adalah beda antara y
dengan y prediksi. Dalam hal ini, y adalah variabel terikat, sedangkan y prediksi adalah
y hasil persamaan
regresi yang dibuat.
Dengan demikian, residual
dibangun dengan rumus y – y prediksi. Asumsi normalitas pada regresi
linear adalah pada residualnya, bukan pada data per variabel.
Uji asumsi normalitas regresi
linear dapat diuji dengan berbagai
metode uji normalitas, seperti uji Shapiro
wilk, Lilliefors, atau Kolmogorov smirnov,
Anderson darling, Ryan joiner, Shapiro
francia, Jarque bera, Skewness kurtosis
test, dan berbagai jenis uji normalitas lainnya.
4.
Non Outlier
Outlier disebut dengan data
pencilan atau data yang nilainya extreme atau lain dari pada yang lainnya.
Batasan outlier tidak bisa dilihat dari nilai absolut studentized
residual. Jika absolut
studentized residual > 3, maka sampel atau observasi yang dimaksud menjadi outlier.
5.
Homoskedastisitas
Homoskedastisitas adalah sebuah
kondisi saat varians dari error bersifat konstan atau tetap. Dengan kata lain, varians dari error bersifat
identic untuk setiap pengamatan.
Kebalikan dari
homoskedastisitas adalah heteroskedastisitas. Model regresi linear berganda
yang baik adalah model yang bebas dari kondisi heteroskedastisitas.
Untuk menguji homoskedastisitas
regresi linear berganda, dapat digunakan uji
homoskedastisitas dari glejser, uji park, uji white,
spearman heteroskedastisitas, dan masih banyak uji lainnya.
6. Non Multikolinearitas
Multikolinearitas adalah keadaan saat terdapat interkorelasi atau korelasi kuat antarvariabel
bebas di dalam model. Dinyatakan ada interkorelasi jika korelasi antarvariabel bebas di dalam model regresi
linear berganda > 0,8. Beberapa pakar menggunakan batasan lebih dari 0,9.
Cara lain yang lebih objektif
adalah dengan menggunakan nilai variance inflating factor (VIF) dan tolerance. Dikatakan ada multikolinearitas jika
nilai VIF > 10 dan/atau nilai tolerance < 0,01.
Berdasarkan uraian
di atas, maka jelas sekali
bahwa asumsi multikolinearitas hanya ada dalam
regresi linear berganda dan tidak ada pada regresi linear sederhana. Sebab pada regresi linear berganda ada
lebih dari satu variabel bebas, sedangkan pada regresi linear sederhana hanya ada
satu variabel bebas.
7.
Non Autokorelasi
Autokorelasi dapat diartikan
bahwa terdapat korelasi antar waktu. Sehingga bisa diartikan dengan mudah bahwa autokorelasi ini sering terjadi
pada regresi linear berganda dengan
data time series atau runtun waktu dan jarang sekali terjadi pada data cross
section.
Data runtun waktu ini, misalnya
data return of investment (ROI) atas saham milik sebuah perusahaan per bulan dari tahun 2012 hingga 2017.
Sedangkan data cross section,
misalnya data hasil dari kuesioner yang disebarkan pada semua siswa sebuah
kelas, yaitu hanya diukur satu kali saja.
Uji autokorelasi ini bisa diuji dengan menggunakan nilai Durbin Watson (DW) dan run test.
2.5 Prosedur dalam Analisis Regresi Majemuk
Tujuan umum
dari regresi majemuk adalah untuk mempelajari lebih lanjut tentang hubungan antara beberapa variabel
independen atau prediktor dan variabel dependen atau kriteria. Dalam penelitian ilmu sosial dan alam beberapa
prosedur regresi sangat banyak digunakan. Misalnya,
peneliti pendidikan mungkin
ingin mempelajari prediktor kesuksesan terbaik perguruan tinggi. Ahli biologi mungkin ingin
menentukan prediktor terbaik untuk
kelangsungan hidup ikan di air yang tercemar. Psikolog mungkin ingin menentukan variabel
kepribadian mana yang terbaik memprediksi penyesuaian sosial.
Sosiolog mungkin ingin mengetahui yang mana dari beberapa sosial
indikator terbaik memprediksi apakah
kelompok imigran baru akan beradaptasi dengan yang baru atau tidak
situasi.
Uji regresi
linier majemuk sangat membantu untuk
mengetahui pengaruh secara serempak
(simultan) baik kualitas maupun kuantitas dari variable-variabel bebas terhadap variable tak bebas. Hasil model persamaan
regresi dapat dipergunakan sebagai pedoman untuk
memprediksi hubungan antar variabel diluar data yang dijadikan sampel dalam suatu
populasi.
Untuk
menjelaskan langkah langkah dalam melakukan uji regresi majemuk akan diberikan
sebuah contoh kasus.
CONTOH KASUS:
Catatan rumah sakit memberikan data pada volume udara eksiprasi
(forced expiratory air volume)
(liter), kapasitas vital (liter) dan kapasitas paru total (liter). Forced expiratory air volume tergantung pada
kapasitas vital dan kapasitas paru total. Hitung koefisien regresi
berganda dan rumuskan persamaan
regresi berganda.
Dalam contoh ini hanya tiga variabel
yang diberikan. Dari ketiganya, forced expiratory
air volume adalah variabel dependen dan kapasitas vital dan kapasitas paru
total variabel independen.
Langkah 1 Masukkan nama variabel dalam Variable view dan data dalam Data
editor. Langkah 2 Pilih
Analyze dari menu utama, kemudian Regression dan kemudian pilih Linear untuk membuka Kotak dialog Linear Regression.
Langkah 3 Pindahkan forced expiratory air volume ke kotak Dependent dan
Vital kapasitas dan Total kapasitas paru-paru ke kotak Independen. (Gambar 2)
Langkah 4: klik Statistics
untuk membuka Linear Regression: kotak dialog Statistics. Klik pada Estimates,
Model Fit dan Descriptive kemudian klik Continue (Gambar 3).
Langkah
5: klik Plots untuk
membuka Linear Regression: Plots dan
pindahkan *ZRESID (variabel dependen
atau variabel kriteria) ke kotak Y dan *ZPRED (variabel Independen atau variabel
prediksi). Kemudian Continue
(Gambar 4)
Langkah 6 :
klik OK untuk menjalankan Analisis,
Hasil Output sebagai berikut
Output 1.
Descriptive Statistics
|
|
Mean |
Std. Deviation |
N |
|
VitalCapasity |
2.027 |
.7353 |
15 |
|
TotalLugCapasity |
3.633 |
.6758 |
15 |
|
ExpiratoryAirVolume |
1.427 |
.5861 |
15 |
Output 2.
Model Summaryb
|
Model |
R |
R Square |
Adjusted R Square |
Std. Error
of the Estimate |
|
1 |
.833a |
.694 |
.643 |
.4390 |
a.
Predictors: (Constant), ExpiratoryAirVolume, TotalLugCapasity
b.
Dependent Variable: VitalCapasity
Output 3.
Output 4
Residuals Statisticsa
|
|
Minimum |
Maximum |
Mean |
Std. Deviation |
N |
|
Predicted
Value |
1.192 |
3.195 |
2.027 |
.6127 |
15 |
|
Residual |
-.4940 |
.9880 |
.0000 |
.4065 |
15 |
|
Std. Predicted Value |
-1.362 |
1.906 |
.000 |
1.000 |
15 |
|
Std. Residual |
-1.125 |
2.250 |
.000 |
.926 |
15 |
a. Dependent Variable:
VitalCapasity
1. Interpretasi Output
Interpretasi output sebagai
berikut.
a)
Pada Output 1 memberikan
statistik deskriptif yaitu mean dan standar deviasi untuk 3 variabel dan jumlah variat. Mean volume
expiratory adalah 1.427 dengan standar deviasi
0.5861 (liter/detik), mean kapasitas vital adalah 2.027 dengan standar
deviasi 0.7353 (liter),dan mean
kapasitas total paru-paru adalah 3.633 dengan standar deviasi 0.6758 (liter).
b)
Pada Output 2, Model Summaryb
. nilai 0.870 yang berada di kolom R adalah multiple correlation coefficient.
Ketiga variabel ini berkorelasi secara
signifikan.
c) Pada Output 3, Berdasarkan tabel output “Coefficients” pada bagian “Collinearity Statistics” diketahui nilai Tolerance untuk variabel Total long Capacity (X1) dan Expiratory capacity (X2) adalah 0,749 lebih besar dari 0,10. Sementara, nilai VIF untuk variabel Total Long Capacity (X1) dan Expiratory Capacity (X2) adalah 1.335 < 10,00. Maka berdasarkan pada dasar pengambilan keputusan dalam uji multikolunearitas dapat disimpulkan bahwa tidak terjadi gejala multikolinearitas dalam model regresi.
Yj = ɑ + b1 X1j + b2 X2j
Oleh karena itu, persamaan regresi berganda diformulasikan sebagai
Pada Output 4, memberikan residual statistics dalam
kasus yang dibahas,
mean dan standar
deviation untuk memprediksi nilai variabel dependen yang diberikan
***
3. 1Kesimpulan
Analisis regresi merupakan metode statistika yang
amat banyak digunakan dalam peneltian. Secara umum regresi
adalah studi mengenai
ketergantungan satu variabel
(variabel tak bebas/ variabel respon) dengan satu atau lebih variabel
bebas/ variabel penjelas.
Sebelum melakukan analisis regresi berganda untuk
uji hipotesis penelitian, maka ada
beberapa persyaratan atau asumsi klasik yang harus terpenuhi, diantaranya yaitu
data interval atau rasio, linearitas, normalitas, non outlier,
homoskedastisitas, non multikolinearitas dan non autokorelasi.
Regresi linier sederhana atau regresi tunggal
digunakan untuk mengetahui hubungan antar variabel dan Tujuan umum dari
regresi majemuk adalah untuk mempelajari lebih lanjut tentang hubungan antara beberapa variabel
independen atau prediktor dan variabel dependen atau kriteria.
3.2 Saran
Dalam melakukan
sebuah penelitian, seorang peneliti harus tahu prasyarat Analisis regresi
linier dan majemuk dapat membantu peneliti dalam menganalisis data dan agar
tidak terjadi kekeliruan dalam menganalisis sebuah data .
DAFTAR PUSTAKA
Arnita, (2013). Pengantar
Statistika, Bandung : Citapustaka Media Perintis.
Cohen, L., Manion, L., &
Morrison, K. 2007. Research Methods in Education (6th ed.). London, New York:
Routllege Falmer
Harlan, J. (2018). Analisis
Regresi Linear. Depok: Gunadarma.
Riduwan, & Sunarto. (2014). Pengantar Statistika untuk Penelitian Pendidikan, Sosial, Ekonomi, dan
Bisnis. Bandung: Alfabeta.
Schreiber, James B., and Kimberly Asner-Self. 2011.
Educational Research. United States of America: John Wiley & Sons, Inc.
Siregar,
S. (2015). Statistika Terapan Untuk
Perguruan Tinggi. Jakarta:
Prenadamedia Group.
Sukestiyarno. 2008. Workshop Olah Data Penelitian dengan
SPSS. Semarang: UNNES
Tri Basuki,
Agus dan Nano Prawoto. 2016. Analisis Regresi Dalam Penelitian
Ekonomi & Bisnis:
Dilengkapi Aplikasi SPSS & Eviews. Jakarta: Rajawali Pers
Komentar
Posting Komentar