BAB V
UJI ASUMSI KLASIK
1.
Buatlah
rangkuman dari pembahasan di atas!
Linear
mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model
artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah
model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan
linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi
linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata.
Unbiased
atau tidak bias, Suatu estimator
dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai
yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama
dengan b, maka selisihnya itu disebut dengan bias.
10
asumsi yang menjadi syarat penerapan OLS,yaitu:
a. Asumsi
1: Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter.
b. Asumsi
2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in
repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak
random).
c. Asumsi
3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).
Artinya, garis regresi pada nilai X tertentu berada tepat di tengah.
d. Asumsi
4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang
sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap
X memiliki rentangan yang sama.
e. Asumsi
5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
f. Asumsi
6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita
dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y.
g. Asumsi
7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah
parameter yang diestimasi.
h. Asumsi
8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang
observasi maka tidak bisa dilakukan regresi.
i.
Asumsi 9: Model regresi
secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias,
karena semuanya telah terekomendasi atau sesuai dengan teori.
j.
Asumsi 10. Tidak ada multikolinearitas
antara variabel penjelas.
Secara
teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga
yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas,
dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik
tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best,
linear, unbias, efficient of estimation (BLUE).
UJI AUTOKORELASI
Autokorelasi
adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan
variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat
korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time
series) ataupun data kerat silang (cross section).
Asumsi
terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol,
dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan
adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain.
SEBAB-SEBAB AUTOKORELASI
Terdapat
banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi,
antara lain:
a. Kesalahan
dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
b. Tidak
memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
c. Manipulasi
data.
d. Menggunakan data yang tidak empiris. Jika data
semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh
realita.
PENGUJIAN AUTOKORELASI
Pengujian
autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah
lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan
oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi, antara lain melalui:
a.
Uji Durbin-Watson (DW
Test).
Dalam
DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·
Terdapat intercept dalam
model regresi.
·
Variabel penjelasnya
tidak random (nonstochastics).
·
Tidak ada unsur lag
dari variabel dependen di dalam model.
·
Tidak ada data yang
hilang.
Langkah-langkah
pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai
dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa
dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif.
Terdapat
beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW test,
yang semuanya menentukan lokasi dimana nilai DW berada. Jelasnya adalah sebagai
berikut:
DW
< dL = terdapat atokorelasi positif
dL<
DW <dU = tidak dapat disimpulkan (inconclusive)
dU
> DW >4-dU = tidak terdapat autokorelasi
4-dU
< DW <4-dL = tidak dapat disimpulkan (inconclusive)
DW
> 4-dL = terdapat autokorelasi negatif
Dimana
DW = Nilai Durbin-Watson d statistik
dU = Nilai batas atas (didapat dari
tabel)
dL = Nilai batas bawah (didapat
dari tabel)
Dalam
pengujian autokorelasi terdapat kemungkinan munculnya autokorelasi positif maupun
negatif. Karena adanya masalah korelasi dapat menimbulkan adanya bias pada
hasil regresi.
b. Menggunakan
metode LaGrange Multiplier
(LM).
LM
sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga
terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan
tersebut adalah data Lag dari variabel dependen. Sebagai kunci untuk mengetahui
pada lag berapa autokorelasi muncul, dapat dilihat dari signifikan tidaknya
variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel
lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t
sebelumnya.
UJI NORMALITAS
Tujuan
dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e)
memiliki distribusi normal atau tidak. Pengujian normalitas data dapat
dilakukan sebelum ataupun setelah tahapan analisis regresi.
Beberapa
cara dapat dilakukan untuk melakukan uji normalitas, antara lain :
a. Menggunakan
metode numerik yang membandingkan nilai statistik, yaitu antara nilai median
dengan nilai mean. Data dikatakan normal (simetris) jika
perbandingan antara mean dan median menghasilkan nilai yang
kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai median
menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral
b. Menggunakan
formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:
dimana:
S
= Skewness (kemencengan) distribusi data
K=
Kurtosis (keruncingan)
c. Mengamati
sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data
observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran
data, langkah awal yang dilakukan adalah menghitung standar deviasi.
Dalam
pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal
atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada
masalah karena uji t dan uji F dapat dilakukan. Apabila data tidak normal, maka
diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar
sampel, atau melakukan transformasi data.
Data
yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness).
Jika data cenderung menceng ke kiri disebut positif skewness, dan jika
data cenderung menceng ke kanan disebut negatif skewness.
UJI HETEROSKEDASTISITAS
Heteroskedastisitas
muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki
varians yang konstan dari satu observasi ke observasi lainnya. Apabila terjadi
varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau
mengalami heteroskedastisitas.
Masalah
heteroskedastisitas lebih sering muncul dalam data cross section dari pada
data time series. Karena dalam data cross section menunjukkan
obyek yang berbeda dan waktu yang berbeda pula. Antara obyek satu dengan yang lainnya
tidak ada saling keterkaitan, begitu pula dalam hal waktu. Sedangkan data time
series, antara observasi satu dengan yang lainnya saling mempunyai kaitan.
Ada trend yang cenderung sama. Sehingga variance residualnya juga
cenderung sama. Tidak seperti data cross section yang cenderung
menghasilkan variance residual yang berbeda pula.
KONSEKUENSI HETEROSKEDASTISITAS
Analisis
regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu
asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta
random sesuai dengan besarnya variabel-variabel independen.
Munculnya
masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena
nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil,
maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya
tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan.
Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang
seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan
dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
PENDETEKSIAN HETEROSKEDASTISITAS
Untuk
mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai
cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank
Correlation, dan uji Whyte menggunakan Lagrange Multiplier.
Pengujian
heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat dengan
residualnya, yang output pendeteksiannya akan tertera berupa sebaran data
pada scatter plot.
UJI MULTIKOLINIERITAS
Multikolinieritas
adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau
eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat
kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak
berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila
masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama.
KONSEKUENSI MULTIKOLINEARITAS
Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar
error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian
nilainya, sehingga akan berpengaruh pula terhadap nilai t. Hal itu akan
berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan
memperkecil nilai t.
PENDETEKSIAN MULTIKOLINEARITAS
Terdapat
beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix
korelasi dengan Pearson Correlation atau dengan Spearman’s Rho
Correlation, melakukan regresi partial dengan teknik auxilary regression,
atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).
Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi
antar variabel dengan menggunakan Spearman’s Rho Correlation dapat
dilakukan apabila data dengan skala Ordinal. Sementara untuk data interval atau
nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode
ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk
dilakukan.
Dalam
kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya
asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan sifat
data dari cross section, maka bila tujuan persamaan hanya sekedar untuk
keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t
signifikan.
2.
Cobalah
untuk menyimpulkan maksud dari uraian bab ini!
Pada
bab ini, bertujuan untuk :
a. Mengerti
apa yang dimaksud dengan uji asumsi klasik
b. Mengerti
item-item asumsi
c. Menjelaskan
maksud item-item asumsi
d. Menyebutkan
nama-nama asumsi yang harus dipenuhi
e. Mengerti
apa yang dimaksud dengan autokorelasi
f. Mengerti
apa yang dimaksud dengan Multikolinearitas
g. Mengerti
apa yang dimaksud dengan Heteroskedastisitas
h. Mengerti
apa yang dimaksud dengan Normalitas
i.
Menjelaskan timbulnya
masalah-masalah dalam uji asumsi klasik
j.
Menjelaskan dampak dari
autokorelasi, heteroskedastisitas, multikolinearitas, normalitas
k. Menyebutkan
alat deteksi dari masalah-masalah tersebut
l.
Menggunakan sebagian
alat-alat deteksi
m. Menjelaskan
keterkaitan asumsi-asumsi
n. Menjelaskan
konsekuensi-konsekuensi dari Asumsi
Pengujian Asumsi Klasik harus dilakukan untuk menguji asumsi-asumsi
yang ada dalam pemodelan regresi linear berganda. Variabel-variabel prediktor
dalam model regresi linear berganda disebut juga sebagai variabel-variabel
independen (bebas), artinya variabel-variabel prediktor tidak memiliki hubungan
atau keterkaitan satu dengan yang lain (intercorrelation). Dengan kata
lain, variabel-variabel prediktor tidak memiliki sifat Multikolinearitas. Diasumsikan Error (ε) bersifat
identik dan independen (iid), serta berdistribusi Normal dengan mean nol
dan varian σ2. Hal ini memberikan arti bahwa komponen error
memiliki kecenderungan mendekati nol dan tidak memiliki ketergantungan diantara
komponen error berdasarkan waktu tertentu (Autokorelasi), serta error mengikuti distribusi Normal (Normalitas) dan tidak memiliki sifat Heteroskedatisitas (varian tidak
konstan).
Tidak semua uji asumsi
klasik harus dilakukan pada analisis regresi linear, seperti: pengujian asumsi Multikolinearitas
tidak harus dilakukan pada analisis regresi linear sederhana yang memiliki
variabel respon dan prediktor hanya satu.
Unbiased
atau tidak bias, Suatu estimator
dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai
yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama
dengan b, maka selisihnya itu disebut dengan bias.
Meskipun
ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap
linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi
nilai variance tidak minimum dan standard error (Sb1, Sb2) akan
bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
3.
Jawablah
pertanyaan-pertanyaan di bawah ini:
a.
Coba
jelaskan apa yang dimaksud dengan asumsi klasik!
Uji asumsi klasik adalah persyaratan
statistik yang harus dipenuhi pada analisis regresi linear
berganda yang berbasis ordinary least square (OLS).
Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan
asumsi klasik, misalnya regresi
logistik atau regresi
ordinal. Demikian juga tidak semua uji asumsi klasik
harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas
tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi
tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan
untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada
variabel tertentu. Misalnya nilai return saham yang dihitung dengan market
model, atau market adjusted model. Perhitungan nilai return yang diharapkan
dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi
klasik.
Uji asumsi klasik yang sering digunakan yaitu
uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji
autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan
uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada
data yang ada.
b.
Sebutkan
apa saja asumsi-asumsi yang ditetapkan!
·
Asumsi 1: Linear
regression Model. Model regresi merupakan hubungan linear dalam parameter.
·
Asumsi 2: Nilai X
adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).
Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
·
Asumsi 3: Variabel
pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya,
garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error
yang berada di atas garis regresi atau di bawah garis regresi, tetapi
setelah keduanya dirata-rata harus bernilai nol.
·
Asumsi 4:
Homoskedastisitas, atau variabel pengganggu e memiliki variance yang
sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap
X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut
heteroskedastisitas
·
Asumsi 5: Tidak ada
otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
·
Asumsi 6: Variabel X
dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan
pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh
keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y).
Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.
·
Asumsi 7: Jumlah
observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang
diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus
cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi,
maka persamaan regresi tidak akan bisa diestimasi.
·
Asumsi 8: Variabel X
harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka
tidak bisa dilakukan regresi.
·
Asumsi 9: Model regresi
secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias,
karena semuanya telah terekomendasi atau sesuai dengan teori.
·
Asumsi 10. Tidak ada
multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas
tidak boleh sempurna atau tinggi.
c.
Coba
jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Tidak semua uji asumsi
klasik harus dilakukan pada analisis regresi linear, seperti: pengujian asumsi Multikolinearitas
tidak harus dilakukan pada analisis regresi linear sederhana yang memiliki
variabel respon dan prediktor hanya satu. Secara
teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga
yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas,
dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik
tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best,
linear, unbias, efficient of estimation (BLUE).
d.
Jelaskan
apa yang dimaksud dengan autokorelasi !
Autokorelasi
adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi
dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila
terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time
series) ataupun data kerat silang (cross section). Proses Autokorelasi
terjadi ketika kovarian antara εi dengan εi tidak sama dengan nol dengan
e.
Jelaskan
kenapa autokorelasi timbul !
Pada pengujian asumsi autokorelasi
ini, diharapkan asumsi Autokorelasi tidak terpenuhi. Tetapi terkadang dalam
suatu penelitian terjadi autokorelasi. Penyebab terjadinya autokorelasi ini
adalah :
·
Kesalahan dalam
pembentukan model, artinya, model yang digunakan untuk menganalisis regresi
tidak didukung oleh teori-teori yang relevan dan mendukung.
·
Tidak memasukkan
variabel yang penting. Variabel penting yang dimaksudkan di sini adalah
variabel yang diperkirakan signifikan mempengaruhi variabel Y.
·
Manipulasi data
penelitian
·
Menggunakan data yang tidak empiris. Jika data
semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh
realita.
f.
Bagaimana
cara mendeteksi masalah autokorelasi ?
Berikut ini merupakan
cara-cara mengidentifikasi
adanya kasus Autokorelasi :
1) Pengujian Durbin-Watson yang menguji adanya
autokorelasi pada lag-1. Pada Tabel
Durbin-Watson[4] diperoleh Output Tabel, yaitu nilai
Durbin-Watson batas bawah (dL) dan batas atas (dU).
Kriteria pemeriksaan asumsi
Autokorelasi residual menggunakan Nilai Durbin-Watson (d), yaitu:
·
Jika d < 2 dan d < dL
, maka residual bersifat autokorelasi positif.
·
Jika d < 2 dan d > dU
, maka residual tidak bersifat autokorelasi.
·
Jika d < 2 dan dL ≤ d
≤ dU , maka hasil pengujian tidak dapat disimpulkan.
·
Jika d > 2 dan 4 – d < dL
, maka residual bersifat autokorelasi negatif.
·
Jika d > 2 dan 4 – d > dU
, maka residual tidak bersifat autokorelasi.
·
Jika d > 2 dan dL ≤
4 – d ≤ dU , maka hasil pengujian tidak dapat
disimpulkan.
2) Pengujian Autocorrelation Function (ACF)
yang menguji adanya autokorelasi pada lag-1, lag-2, lag-3, dan seterusnya. Pada
uji ACF, kasus autokorelasi terjadi ketika ada lag pada plot ACF yang keluar
batas signifikansi (margin error).
3) Pengujian Autokorelasi lainnya, seperti: Uji
Breusch-Godfrey dan Uji Ljung-Box (gunakan software EVIEWS).
g.
Apa
konsekuensi dari adanya masalah autokorelasi dalam model ?
Meskipun
ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap
linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai
variance tidak minimum dan standard error (Sb1, Sb2) akan bias.
Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
h.
Jelaskan
apa yang dimaksud dengan heteroskedastisitas !
Heteroskedatisitas adalah asumsi residual dari model regresi yang
memiliki varian tidak konstan. Pada pemeriksaan ini, diharapkan asumsi
Heteroskedatisitas tidak terpenuhi karena model regresi linier berganda
memiliki asumsi varian residual yang konstan (Homoskedatisitas). Heteroskedastisitas
muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki
varians yang konstan dari satu observasi ke observasi lainnya.
i.
Jelaskan
kenapa heteroskedastisitas timbul !
Penyebab terjadinya kasus heteroskedatisitas adalah:
·
Terdapat kesalahan
input komponen/nilai variabel respon pada beberapa prediktor, sehingga
pada komponen prediktor yang berbeda memiliki komponen variabel respon yang
sama
·
Kasus Heteroskedatisitas terjadi secara alami pada variabel-variabel ekonomi
·
Terdapat pengaruh Heteroskedatisitas pada data time series yang umum
terjadi pada variabel-variabel ekonomi yang memiliki volatilitas
·
Adanya Manipulasi
Data yang menyebabkan residual data memiliki varian yang sistematik.
j.
Bagaimana
cara mendeteksi masalah heteroskedastisitas ?
Berikut diberikan cara-cara mengidentifikasi adanya
kasus Heteroskedatisitas:
·
Dilakukan pemeriksaan dengan metode Grafik, seperti:
-
Pemeriksaan output scatter plot dari variabel
respon (y) pada sumbu-Y dengan masing-masing variabel prediktornya (X)
pada sumbu-X.
-
Pemeriksaan output scatter plot dari variabel
residual (e) pada sumbu-Y dengan variabel prediksi respon (y-hat)
pada sumbu-X.
-
Pemeriksaan output scatter plot dari variabel
residual (e) pada sumbu-Y dengan masing-masing variabel prediktornya (X)
pada sumbu-X.
·
Dilakukan pengujian dengan metode Formal, meliputi: Uji Park, Uji
Glejser, Uji Goldfeld-Quandt, Uji Breusch-Pagan/Godfrey, dan Uji White
k.
Apa
konsekuensi dari adanya masalah heteroskedastisitas dalam model ?
Munculnya
masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena
nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil,
maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin
mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi
signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t
yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan.
Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
l.
Jelaskan
apa yang dimaksud dengan multikolinearitas !
Multikolinearitas adalah asumsi yang menunjukkan adanya hubungan
linear yang kuat diantara beberapa variabel prediktor dalam suatu model regresi
linear berganda. Model regresi yang baik memiliki variabel-variabel prediktor
yang independen atau tidak berkorelasi. Pada pengujian asumsi ini, diharapkan
asumsi Multikolinieritas tidak terpenuhi.
m.
Jelaskan
kenapa multikolinearitas timbul !
Penyebab terjadinya kasus Multikolinieritas adalah terdapat korelasi atau
hubungan linear yang kuat diantara beberapa variabel prediktor yang dimasukkan
kedalam model regresi, seperti: variabel-variabel ekonomi yang
kebanyakan terkait satu dengan yang lain (intercorrelation).
n.
Bagaimana
cara mendeteksi masalah multikolinearitas?
·
Menghitung dan menguji koefisien korelasi diantara variabel-variabel prediktor. Terjadi
kasus Multikolinieritas ketika terdapat korelasi yang kuat (atau signifikan)
diantara variabel-variabel prediktor.
·
Mengecek nilai standard error dari masing-masing koefisien regresi [se(β)].
Kasus Multikolinieritas biasanya terjadi ketika nilai standard error dari
koefisien regresi membesar, sehingga hasil ini akan cenderung menerima H0
(menyimpulkan bahwa koefisien regresi tidak signifikan) pada pengujian
signifikansi parameter/koefisien regresi. Hal ini dapat terjadi, meskipun nilai
koefisien regresinya tidak mendekati nol.
·
Menjumpai adanya output pengujian serentak
koefisien regresi atau Uji ANOVA atau Uji
F yang signifikan, tetapi output pengujian parsial koefisien regresi
atau Uji t dari masing-masing
variabel prediktor tidak ada yang
signifikan.
·
Membandingkan output koefisien regresi dengan koefisien korelasi antara variabel respon
dan prediktor. Pertama, kasus
Multikolinieritas biasanya terjadi ketika terdapat perubahan hasil pengujian
signifikansi pada koefisien regresi dan koefisien korelasi. Kedua, terjadi kasus Multikolinieritas
ketika terdapat perubahan tanda koefisien (+/-) pada koefisien regresi dan
koefisien korelasi.
·
Melakukan pemeriksaan nilai Variance Inflation Factor (VIF)
dari masing-masing variabel prediktor. Kasus Multikolinieritas terjadi ketika
nilai VIFj > 10
o.
Apa
konsekuensi dari adanya masalah multikolinearitas dalam model?
Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar
error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian
nilainya, sehingga akan berpengaruh pula terhadap nilai t. Hal itu akan
berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan
memperkecil nilai t. Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi
kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan
b2 akan tidak dapat ditentukan hasilnya
p.
Jelaskan
apa yang dimaksud dengan normalitas!
Asumsi Normalitas adalah asumsi residual yang berdistribusi
Normal. Asumsi ini harus terpenuhi untuk model regresi linear yang baik. Uji
Normalitas dilakukan pada nilai residual model regresi. Tujuan
dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e)
memiliki distribusi normal atau tidak. Pengujian normalitas data dapat
dilakukan sebelum ataupun setelah tahapan analisis regresi.
q.
Jelaskan
kenapa normalitas timbul!
Penyebab terjadinya kasus Normalitas adalah:
·
Terdapat data residual dari model regresi yang memiliki nilai data yang berada
jauh dari himpunan data atau data ekstrim (outliers), sehingga penyebaran datanya menjadi non-Normal.
·
Terdapat kondisi
alami dari data yang pada dasarnya tidak berdistribusi Normal atau
berdistribusi lain, seperti: distribusi binormal, multinormal, eksponensial,
gamma, dll.
r.
Bagaimana
cara mendeteksi masalah normalitas?
Berikut diberikan cara-cara
mengidentifikasi adanya kasus Normalitas:
·
Dilakukan pemeriksaan dengan metode Grafik, yaitu pemeriksaan
Normalitas dengan output normal P-P plot atau Q-Q plot. Asumsi Normalitas
terpenuhi ketika pencaran data residual berada disekitar garis lurus melintang
·
Dilakukan pengujian dengan metode Formal, seperti: pengujian
normalitas yang dilakukan melalui uji Kolmogorov-Smirnov, uji Anderson-Darling,
uji Shapiro-Wilk, dan uji Jarque-Bera yang mana semua pengujian ini memiliki hipotesis
interpretasi, yaitu:
H0
: Residual berdistribusi Normal
H1
: Residual tidak berdistribusi Normal
Asumsi
Normalitas terpenuhi ketika pengujian normalitas menghasilkan P-value (Sign.)
lebih besar dari α dengan nilai α ditentukan sebesar 1%, 5%, atau 10%.
s.
Apa
konsekuensi dari adanya masalah normalitas dalam model?
Uji
normalitas bertujuan untuk menguji apakah dalam model regresi, variabel
penggangu atau residual memiliki distribusi normal. Jika asumsi ini
dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk
sampel kecil. Uji normalitas dapat dilakukan melalui dua pendekatan yaitu
melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov,
chi-square, Liliefors maupun Shapiro-Wilk.
t.
Bagaimana
cara menangani jika data ternyata tidak normal?
·
Melakukan transformasi variabel terhadap variabel respon (y) dan variabel
prediktor (X). Transformasi yang digunakan adalah transformasi ln, akar
kuadrat, dan Box-Cox.
·
Menggunakan transformasi pilihan untuk menstimulasi Normalitas[3],
yaitu: transformasi ln-skewness (gunakan software STATA) yang dilakukan pada
variabel respon (y), kemudian transformasi yang terbentuk diterapkan juga pada
variabel prediktornya (X). Ketentuan transformasi ini dilakukan dengan
mentransformasikan y dalam ln|y – k| secara iteratif sehingga ditemukan suatu nilai
k yang menyebabkan nilai skewness-nya mendekati nol.
·
Menggunakan metode estimasi yang lebih advance, seperti: Regresi dengan
pendekatan Bootstrapping, Regresi Nonparametrik, dan Regresi dengan pendekatan
Bayessian.
Sumber: Supawi Pawenang. 2011. Ekonometrika
Terapan. Jogjakarta: IDEA Press.
Sumber: Supawi Pawenang. 2016. Ekonomi Manajerial. Surakarta:
Universitas Islam Batik.
Olah Data Semarang
BalasHapusWhatsapp 085227746673
Terima Jasa Olah Data
SPSS, EVIEWS, STATA, SmartPLS, DLL
Turnitin Free (Gratis) Berlaku Sampai 2022
Link Download
bit.ly/New32Dec
STATA 17 Full Version
Link Download
dik.si/STATA17
SmartPLS 3.3.3 Full Version
Link Download
dik.si/SM333
Eviews 12 Full Version
Link Download
dik.si/Eviews
#new_olahdatasemarang #newolahdatasemarang #skripsi #olahdata #jasaskripsi
#spss #stata #smartpls #eviews #turnitin #olahdatasemarang #olahdatasemarang_
#olahdatasemarang2021 #olahdatasemarang_2021