Minggu, 09 Juli 2017

UJI ASUMSI KLASIK


BAB V
UJI ASUMSI KLASIK

1.      Buatlah rangkuman dari pembahasan di atas!
Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata.
Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
10 asumsi yang menjadi syarat penerapan OLS,yaitu:
a.       Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.
b.      Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
c.       Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah.
d.      Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama.
e.       Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
f.       Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y.
g.      Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi.
h.      Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
i.        Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
j.        Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).
UJI AUTOKORELASI
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain.
SEBAB-SEBAB AUTOKORELASI
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, antara lain:
a.       Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
b.      Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
c.       Manipulasi data.
d.       Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.
PENGUJIAN AUTOKORELASI
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
a.      Uji Durbin-Watson (DW Test).
Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·         Terdapat intercept dalam model regresi.
·         Variabel penjelasnya tidak random (nonstochastics).
·         Tidak ada unsur lag dari variabel dependen di dalam model.
·         Tidak ada data yang hilang.
Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif.
Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya menentukan lokasi dimana nilai DW berada. Jelasnya adalah sebagai berikut:
DW < dL = terdapat atokorelasi positif
dL< DW <dU = tidak dapat disimpulkan (inconclusive)
dU > DW >4-dU = tidak terdapat autokorelasi
4-dU < DW <4-dL = tidak dapat disimpulkan (inconclusive)
DW > 4-dL = terdapat autokorelasi negatif
Dimana
DW = Nilai Durbin-Watson d statistik
dU = Nilai batas atas (didapat dari tabel)
dL = Nilai batas bawah (didapat dari tabel)
Dalam pengujian autokorelasi terdapat kemungkinan munculnya autokorelasi positif maupun negatif. Karena adanya masalah korelasi dapat menimbulkan adanya bias pada hasil regresi.
b.      Menggunakan metode LaGrange Multiplier
(LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Sebagai kunci untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya.

UJI NORMALITAS
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain :
a.       Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean dan median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral
b.      Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:
dimana:
S = Skewness (kemencengan) distribusi data
K= Kurtosis (keruncingan)
c.       Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan adalah menghitung standar deviasi.
Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan. Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.
Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness.

UJI HETEROSKEDASTISITAS
Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya. Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas.
Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series. Karena dalam data cross section menunjukkan obyek yang berbeda dan waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu. Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama. Tidak seperti data cross section yang cenderung menghasilkan variance residual yang berbeda pula.



KONSEKUENSI HETEROSKEDASTISITAS
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen.
Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
PENDETEKSIAN HETEROSKEDASTISITAS
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier.
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot.

UJI MULTIKOLINIERITAS
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama.


KONSEKUENSI MULTIKOLINEARITAS
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
PENDETEKSIAN MULTIKOLINEARITAS
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF). Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala Ordinal. Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan.
Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.

2.      Cobalah untuk menyimpulkan maksud dari uraian bab ini!
Pada bab ini, bertujuan untuk :
a.       Mengerti apa yang dimaksud dengan uji asumsi klasik
b.      Mengerti item-item asumsi
c.       Menjelaskan maksud item-item asumsi
d.      Menyebutkan nama-nama asumsi yang harus dipenuhi
e.       Mengerti apa yang dimaksud dengan autokorelasi
f.       Mengerti apa yang dimaksud dengan Multikolinearitas
g.      Mengerti apa yang dimaksud dengan Heteroskedastisitas
h.      Mengerti apa yang dimaksud dengan Normalitas
i.        Menjelaskan timbulnya masalah-masalah dalam uji asumsi klasik
j.        Menjelaskan dampak dari autokorelasi, heteroskedastisitas, multikolinearitas, normalitas
k.      Menyebutkan alat deteksi dari masalah-masalah tersebut
l.        Menggunakan sebagian alat-alat deteksi
m.    Menjelaskan keterkaitan asumsi-asumsi
n.      Menjelaskan konsekuensi-konsekuensi dari Asumsi
Pengujian Asumsi Klasik harus dilakukan untuk menguji asumsi-asumsi yang ada dalam pemodelan regresi linear berganda. Variabel-variabel prediktor dalam model regresi linear berganda disebut juga sebagai variabel-variabel independen (bebas), artinya variabel-variabel prediktor tidak memiliki hubungan atau keterkaitan satu dengan yang lain (intercorrelation). Dengan kata lain, variabel-variabel prediktor tidak memiliki sifat Multikolinearitas. Diasumsikan Error (ε) bersifat identik dan independen (iid), serta berdistribusi Normal dengan mean nol dan varian σ2. Hal ini memberikan arti bahwa komponen error memiliki kecenderungan mendekati nol dan tidak memiliki ketergantungan diantara komponen error berdasarkan waktu tertentu (Autokorelasi), serta error mengikuti distribusi Normal (Normalitas) dan tidak memiliki sifat Heteroskedatisitas (varian tidak konstan).
Tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, seperti: pengujian asumsi Multikolinearitas tidak harus dilakukan pada analisis regresi linear sederhana yang memiliki variabel respon dan prediktor hanya satu.
Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

3.      Jawablah pertanyaan-pertanyaan di bawah ini:
a.      Coba jelaskan apa yang dimaksud dengan asumsi klasik!
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada.

b.      Sebutkan apa saja asumsi-asumsi yang ditetapkan!
·         Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.
·         Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
·         Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
·         Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas
·         Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
·         Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.
·         Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
·         Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
·         Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
·         Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.

c.       Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, seperti: pengujian asumsi Multikolinearitas tidak harus dilakukan pada analisis regresi linear sederhana yang memiliki variabel respon dan prediktor hanya satu. Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).

d.      Jelaskan apa yang dimaksud dengan autokorelasi !
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Proses Autokorelasi terjadi ketika kovarian antara εi dengan εi tidak sama dengan nol dengan

e.       Jelaskan kenapa autokorelasi timbul !
Pada pengujian asumsi autokorelasi ini, diharapkan asumsi Autokorelasi tidak terpenuhi. Tetapi terkadang dalam suatu penelitian terjadi autokorelasi. Penyebab terjadinya autokorelasi ini adalah :
·         Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
·         Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
·         Manipulasi data penelitian
·          Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.

f.       Bagaimana cara mendeteksi masalah autokorelasi ?
Berikut ini merupakan cara-cara mengidentifikasi adanya kasus Autokorelasi :
1)      Pengujian Durbin-Watson yang menguji adanya autokorelasi pada lag-1. Pada Tabel Durbin-Watson[4] diperoleh Output Tabel, yaitu nilai Durbin-Watson batas bawah (dL) dan batas atas (dU). Kriteria pemeriksaan asumsi Autokorelasi residual menggunakan Nilai Durbin-Watson (d), yaitu:
·         Jika d < 2 dan d < dL , maka residual bersifat autokorelasi positif.
·         Jika d < 2 dan d > dU , maka residual tidak bersifat autokorelasi.
·         Jika d < 2 dan dLddU , maka hasil pengujian tidak dapat disimpulkan.
·         Jika d > 2 dan 4 – d < dL , maka residual bersifat autokorelasi negatif.
·         Jika d > 2 dan 4 – d > dU , maka residual tidak bersifat autokorelasi.
·         Jika d > 2 dan dL ≤ 4 – ddU , maka hasil pengujian tidak dapat disimpulkan.
2)      Pengujian Autocorrelation Function (ACF) yang menguji adanya autokorelasi pada lag-1, lag-2, lag-3, dan seterusnya. Pada uji ACF, kasus autokorelasi terjadi ketika ada lag pada plot ACF yang keluar batas signifikansi (margin error).
3)      Pengujian Autokorelasi lainnya, seperti: Uji Breusch-Godfrey dan Uji Ljung-Box (gunakan software EVIEWS).

g.      Apa konsekuensi dari adanya masalah autokorelasi dalam model ?
Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

h.      Jelaskan apa yang dimaksud dengan heteroskedastisitas !
Heteroskedatisitas adalah asumsi residual dari model regresi yang memiliki varian tidak konstan. Pada pemeriksaan ini, diharapkan asumsi Heteroskedatisitas tidak terpenuhi karena model regresi linier berganda memiliki asumsi varian residual yang konstan (Homoskedatisitas). Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya.

i.        Jelaskan kenapa heteroskedastisitas timbul !
Penyebab terjadinya kasus heteroskedatisitas adalah:
·         Terdapat kesalahan input komponen/nilai variabel respon pada beberapa prediktor, sehingga pada komponen prediktor yang berbeda memiliki komponen variabel respon yang sama
·         Kasus Heteroskedatisitas terjadi secara alami pada variabel-variabel ekonomi
·         Terdapat pengaruh Heteroskedatisitas pada data time series yang umum terjadi pada variabel-variabel ekonomi yang memiliki volatilitas
·         Adanya Manipulasi Data yang menyebabkan residual data memiliki varian yang sistematik.

j.        Bagaimana cara mendeteksi masalah heteroskedastisitas ?
Berikut diberikan cara-cara mengidentifikasi adanya kasus Heteroskedatisitas:
·         Dilakukan pemeriksaan dengan metode Grafik, seperti:
-          Pemeriksaan output scatter plot dari variabel respon (y) pada sumbu-Y dengan masing-masing variabel prediktornya (X) pada sumbu-X.
-          Pemeriksaan output scatter plot dari variabel residual (e) pada sumbu-Y dengan variabel prediksi respon (y-hat) pada sumbu-X.
-          Pemeriksaan output scatter plot dari variabel residual (e) pada sumbu-Y dengan masing-masing variabel prediktornya (X) pada sumbu-X.
·         Dilakukan pengujian dengan metode Formal, meliputi: Uji Park, Uji Glejser, Uji Goldfeld-Quandt, Uji Breusch-Pagan/Godfrey, dan Uji White

k.      Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model ?
Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.

l.        Jelaskan apa yang dimaksud dengan multikolinearitas !
Multikolinearitas adalah asumsi yang menunjukkan adanya hubungan linear yang kuat diantara beberapa variabel prediktor dalam suatu model regresi linear berganda. Model regresi yang baik memiliki variabel-variabel prediktor yang independen atau tidak berkorelasi. Pada pengujian asumsi ini, diharapkan asumsi Multikolinieritas tidak terpenuhi.

m.    Jelaskan kenapa multikolinearitas timbul !
Penyebab terjadinya kasus Multikolinieritas adalah terdapat korelasi atau hubungan linear yang kuat diantara beberapa variabel prediktor yang dimasukkan kedalam model regresi, seperti: variabel-variabel ekonomi yang kebanyakan terkait satu dengan yang lain (intercorrelation).

n.      Bagaimana cara mendeteksi masalah multikolinearitas?
·         Menghitung dan menguji koefisien korelasi diantara variabel-variabel prediktor. Terjadi kasus Multikolinieritas ketika terdapat korelasi yang kuat (atau signifikan) diantara variabel-variabel prediktor.
·         Mengecek nilai standard error dari masing-masing koefisien regresi [se(β)]. Kasus Multikolinieritas biasanya terjadi ketika nilai standard error dari koefisien regresi membesar, sehingga hasil ini akan cenderung menerima H0 (menyimpulkan bahwa koefisien regresi tidak signifikan) pada pengujian signifikansi parameter/koefisien regresi. Hal ini dapat terjadi, meskipun nilai koefisien regresinya tidak mendekati nol.
·         Menjumpai adanya output pengujian serentak koefisien regresi atau Uji ANOVA atau Uji F yang signifikan, tetapi output pengujian parsial koefisien regresi atau Uji t dari masing-masing variabel prediktor tidak ada yang signifikan.
·         Membandingkan output koefisien regresi dengan koefisien korelasi antara variabel respon dan prediktor. Pertama, kasus Multikolinieritas biasanya terjadi ketika terdapat perubahan hasil pengujian signifikansi pada koefisien regresi dan koefisien korelasi. Kedua, terjadi kasus Multikolinieritas ketika terdapat perubahan tanda koefisien (+/-) pada koefisien regresi dan koefisien korelasi.
·         Melakukan pemeriksaan nilai Variance Inflation Factor (VIF) dari masing-masing variabel prediktor. Kasus Multikolinieritas terjadi ketika nilai VIFj > 10

o.      Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t. Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya

p.      Jelaskan apa yang dimaksud dengan normalitas!
Asumsi Normalitas adalah asumsi residual yang berdistribusi Normal. Asumsi ini harus terpenuhi untuk model regresi linear yang baik. Uji Normalitas dilakukan pada nilai residual model regresi. Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.

q.      Jelaskan kenapa normalitas timbul!
Penyebab terjadinya kasus Normalitas adalah:
·         Terdapat data residual dari model regresi yang memiliki nilai data yang berada jauh dari himpunan data atau data ekstrim (outliers), sehingga penyebaran datanya menjadi non-Normal.
·         Terdapat kondisi alami dari data yang pada dasarnya tidak berdistribusi Normal atau berdistribusi lain, seperti: distribusi binormal, multinormal, eksponensial, gamma, dll.

r.       Bagaimana cara mendeteksi masalah normalitas?
Berikut diberikan cara-cara mengidentifikasi adanya kasus Normalitas:
·         Dilakukan pemeriksaan dengan metode Grafik, yaitu pemeriksaan Normalitas dengan output normal P-P plot atau Q-Q plot. Asumsi Normalitas terpenuhi ketika pencaran data residual berada disekitar garis lurus melintang
·         Dilakukan pengujian dengan metode Formal, seperti: pengujian normalitas yang dilakukan melalui uji Kolmogorov-Smirnov, uji Anderson-Darling, uji Shapiro-Wilk, dan uji Jarque-Bera yang mana semua pengujian ini memiliki hipotesis interpretasi, yaitu:
H0 : Residual berdistribusi Normal
H1 : Residual tidak berdistribusi Normal
Asumsi Normalitas terpenuhi ketika pengujian normalitas menghasilkan P-value (Sign.) lebih besar dari α dengan nilai α ditentukan sebesar 1%, 5%, atau 10%.



s.       Apa konsekuensi dari adanya masalah normalitas dalam model?
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau residual memiliki distribusi normal.  Jika asumsi ini dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk sampel kecil. Uji normalitas dapat dilakukan melalui dua pendekatan yaitu melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov, chi-square, Liliefors maupun Shapiro-Wilk.

t.        Bagaimana cara menangani jika data ternyata tidak normal?
·         Melakukan transformasi variabel terhadap variabel respon (y) dan variabel prediktor (X). Transformasi yang digunakan adalah transformasi ln, akar kuadrat, dan Box-Cox.
·         Menggunakan transformasi pilihan untuk menstimulasi Normalitas[3], yaitu: transformasi ln-skewness (gunakan software STATA) yang dilakukan pada variabel respon (y), kemudian transformasi yang terbentuk diterapkan juga pada variabel prediktornya (X). Ketentuan transformasi ini dilakukan dengan mentransformasikan y dalam ln|y – k| secara iteratif sehingga ditemukan suatu nilai k yang menyebabkan nilai skewness-nya mendekati nol.
·         Menggunakan metode estimasi yang lebih advance, seperti: Regresi dengan pendekatan Bootstrapping, Regresi Nonparametrik, dan Regresi dengan pendekatan Bayessian.



Sumber: Supawi Pawenang. 2011. Ekonometrika Terapan. Jogjakarta: IDEA Press.
Sumber: Supawi Pawenang. 2016. Ekonomi Manajerial. Surakarta: Universitas Islam Batik.