Vous êtes sur la page 1sur 78

ekonometrika

Teori dan Aplikasi


Definisi Ekonometrika

 Ekonometrika : “UKURAN-UKURAN
EKONOMI”
 Ilmu yang mempelajari analisa kuantitaf dari
fenomena ekonomi dalam artian secara
umum
 Gabungan teori ekonomi, matematika
ekonomi, statistika ekonomi dan teknik
komputasi
Metodologi

1. Mengacu pada teori : mengajukan hipotesa


2. Menjawab hipotesa: mengajukan model
3. Parameter dari model tersebut, diestimasi dengan
software
4. Hasil analisa diverifikasi apakah sesuai dengan
teori atau tidak
5. Model yang layak dapat digunakan untuk
memprediksi
6. Prediksi digunakan sebagai bahan pertimbangan
untuk pengambilan keputusan
ASUMSI-ASUMSI MODEL REGRESI
LINIER (gaussian)
1. Model Regresi linier. Model Regresi linier dalam
paramater.
2. Nilai variabel eksplanatoris (X) atau variabel independen
atau variabel yang menjelaskan adalah tetap pada sampel
berulang. Atau disebut deterministik atau non stokastik.
Artinya analisa regresi adalah analisa pada nilai X
tertentu.
3. Nilai rata-rata harapan dari disturbance error adalah nol.
4. Homosekedastisitas dari varians disturbance error.
5. E[e x]  0
Tidak ada autokorelasi diantara disturbance error.

var[ eˆ X ]  E[eˆ  E (eˆ X )] 2  E[eˆ 2 X ]   2


6. Kovarian antara disturbance error dengan variabel independen
adalah 0. asumsi ini menyatakan bahwa disturbance error dan
variabel independen tidak berkorelasi.
7. Jumlah observasi (n) harus lebih besar dari jumlah variabel
yang diamati.
8. Nilai dari variabel independen harus bervariasi
9. Model regresi harus dispesifikasi dengan benar. Artinya model
ekonometrika harus diasumsikan telah menggunakan model
ekonomi dnegan benar. Tetapi model ekonometrika dapat
mengutamakan seni dan pengalaman dibandingkan sains.
10. Tidak terdapat multikolineritas diantara variable independen
Regresi Linear Sederhana
RUMUS PERSAMAAN REGRESI

 Persamaan regresi : Suatu persamaan


matematika yang mendefinisikan hubungan
antara dua variabel.
 Y = a + bX
n . XY   X .  Y
b
n . X   X 
2 2

Y  bX
a 
n
n . XY   X .  Y
b
n . X   X 
2 2

Y  bX
a
n
 Di mana

 Y adalah nilai sebenarnya,


 adalah nilai regresi
 eŶ adalah error atau kesalahan
Prinsip Ordinary Least Square

 eˆ   y   yˆ

  y   ( ˆ0  ˆ1 x)

  y  nˆ 0  ˆ1  x

 eˆ / n  y  ˆ 0  ˆ1 x
Contoh Soal
Saham Deviden Harga Saham xy X2 Y2
(x) (y)

A 13 115 1495 169 13225


B 4 45 180 16 2025
C 12 100 1200 144 10000
D 5 50 250 25 2500
E 6 55 330 36 3025
F 8 85 680 64 7225
G 3 40 120 9 1600
H 4 50 200 16 2500
I 5 45 225 25 2025
J 7 70 490 49 4900

total 67 655 5170 553 49025


pembahasan

5170  [10(6.7)(65.5)]
ˆ1   7,5072
553  [10(6.7)(6.7)]

ˆ0  65.5  (7.5072)(6.7)  15.2017


Yˆ  15.2017  7.5072 X
Koefisien Determinasi

SST   ( y  y ) 2
SSR   ( yˆ  y ) 2
SSE   ( y  yˆ ) 2   eˆ 2
SST  SSR  SSE
SSR SSE
R2   1
SST SST

SST   ( y  y ) 2   y 2  ny 2
SST  49025  10(65.5)  6122.5
SSE 255.6196
R  1
2
 1  0.9582
SST 6122.5
Uji Parsial
 Dalam uji pasial, masing-masing koefisien thit
untuk masing-masing koefisien tersebut diuji,
apakah signifikan atau tidak
 Bentuk pengujian sama seperti sebelumnya
dua arah atau satu arah
 Hipothesis yang diuji:
Ho: b1=0 dan
Ha: b2  0
Uji Signifikansi parsial atau individu

b1  B1  1,015  0
t hit .b1    1,75
Sb1 0,58

b 2  B2  0,410  0
t hit .b 2    2,673
Sb 2 0,1558
ANALISIS REGRESI DAN
KORELASI BERGANDA

Bentuk persamaan regresi dengan dua variabel indenpenden adalah:

Y = a + b1 X1 + b2 X2
Bentuk persaman regresi dengan 3 veriabel independen adalah:

Y = a + b X1 + b2 X2 + b3 X3

Bentuk umum persamaan regresi untuk k variabel indenden dapat


dirumuskan sebagai berikut:

Y = a + b1 X1 + b2 X2 + b3X3 + … + bk Xk
Persamaan untuk mendapatkan koefisien
regresi
Prinsip metode ordinary least square(OLS) adalah
meminimumkan jumlah kuadrat deviasi di sekitar
garis regresi. Nilai koefisien regresi a, b1, dan b2
dapat dipecahkan secara simultan.

Y = na + b1X1 + b2X2 (1)


X1Y = aX1 + b1X12 + b2X1 X2 (2)
X2Y = aX2 + b1X1 X2 + b2X22 (3)
CONTOH: PERMINTAAN DIPENGARUHI HARGA DAN PENDAPATAN

Nomor Permintaan (Y) Harga Pendapatan


Sampel Minyak ( minyak (X1) (Rp (X2)

1 3 8 10
2 4 7 10
3 5 7 8
4 6 7 5
5 6 6 4
6 7 6 3
7 8 6 2
8 9 6 2
9 10 5 1
10 10 5 1
Untuk mendapatkan koefisien regresi, perlu dihitung : Y,
X1, X2, X1Y, X12, X1 X2, X2Y, X22

Y X1 X2 YX1 YX2 X12 X 22 X1X2


3 8 10
24 30 64 100 80
4 7 10
28 40 49 100 70
5 7 8
35 40 49 64 56
6 7 5
42 30 49 25 35
6 6 4
36 24 36 16 24
7 6 3
42 21 36 9 18
8 6 2
48 16 36 4 12
9 6 2
54 18 36 4 12
10 5 1
50 10 25 1 5
10 5 1
50 10 25 1 5

Y=68 X1 = 63 X2 =46 X1Y= 409 X2Y= 239 X12= 405 X22= 324 X1X2 = 317
Dengan metode eliminasi
68 = 10a + 63b1+ 46b2 …(1)
409 = 63a + 405b1+ 317b2 …(2)
239 = 46a + 317b1+ 324b2 …(3)
Untuk mendapatkan nilai koefisien regresi a, b1, dan b2 dapat
dilakukan dengan Subtitusi antar persamaan
-428,4 = -63a –396,9 b1-289,8b2
…persamaan 1 dikalikan – 6,3
409 = 63a + 405b1 + 317b2 …..…………………. (2)
-19,4 = 0 + 8,1b1 + 27,2b2 ……………………. (4)

-312,8 = -46a –289,8 b1 - 211,6b2 Persamaan 1 dikalikan –4,6


239 = 46a + 317b1 + 324b2 ………………………..... (3)
-73,8 = 0 + 27,2b1 + 112,4b2 ………………………. (5)
Dari persamaan diatas, nilai b2 adalah = -8,65/21,06 = -0,41.
Setelah menemukan nilai b2, nilai b1 dapat dicari dengan
mempergunakan persamaan 4 atau 5.
-19,4 = 0 + 8,1b1 + 27,2(-0,41) ……… (4)
19,4 = 8,1b1 - 11,18
8,1b1 = -19,4 + 11,18
8,1 b1 = - 8,22
b1 = -8,22/8,1 = -1,015

68 = 10a + 63 (-1,015) + 46(-0,41)……………………….. (1)


68 = 10a - 63,96 – 18,90
10a = 63 + 92,86
a = 150,86/10 = 15,086

Dengan menemukan nilai koefisien regresi a, b1, dan b2 maka persamaan


regresinya dapat dinyatakan sebagai berikut:

Y = 15,086 – 1,015X1 – 0,41 X2


RUMUS KOEFISIEN DETERMINASI (R2)
Koefisien Determinasi menunjukkan suatu proporsi dari
varian yang dapat diterangkan oleh persamaan regresi
(regression of sum squares, RSS). Besarnya koefisien
determinasi dirumuskan sebagai berikut:

( Ŷ  Y ) 2

R 
2
atau
(Y  Y ) 2

n (a. Y  b1 . YX 1  b 2 YX 2 )  ( Y) 2
R2 
n. Y  ( Y)
2 2
n (a. Y  b1 . YX 1  b 2 YX 2 )  ( Y) 2

R 
2

n. Y  ( Y)
2 2

R2 
10(15,086)( 68)  1,015( 409)  ( 0, 41)( 239)   ( 68) 2

(10)(516)  (68) 2

R 2  0,939
Korelasi sederhana
n  YX1   Y X1
rYX1 
n Y   Y .n X   X  
2 2 2
1 1
2

n  YX 2   Y X 2
rYX2 
n Y   Y .n X   X  
2 2 2
2 2
2

n  X1X 2   X1  X 2
rX1X 2 
n X 2
1
2

 X1  . n  X   X 2 
2
2
2

Coba hitung masing-masing nilai korelasi
tersebut.

ryx1 

ryx 2 

rx1x 2 
KORELASI PARSIAL: Hubungan variabel
dengan asumsi variabel lain tetap

rYX1  rYX2 rX1X 2


rYX1 .X 2 
(1  r 2
YX 2 )(1  r 2
X1X 2 )
ryX1.X2= korelasi Y dengan X1,
dimana X2 tetap
rYX2  rYX1 rX1X 2
rYX2 .X1 
(1  r 2
YX1 )(1  r 2
X1X 2 )
rX1X 2  rYX1 rYX2
rX1X 2 .Y 
(1  r 2
YX1 )(1  r 2
YX 2 )
Coba hitung masing-masing nilai korelasi
parsial tersebut

ryx1 . x 2 

ryx 2 . x1 

rx1x 2 . y 
Kesalahan Baku (standar error pendugaan)

( Ŷ  Y )

2

S 
n  ( k  1)
Y . X 1X 2

SY.X1.X2: Kesalahan baku atau standar error pendugaan


Variabel Y
berdasarkan variabel X1 dan X2
Ŷ : Nilai dugaan dari Y di mana X1 dan X2 diketahui
Y : Nilai pengamatan dari Y
N : Jumlah sampel atau data
K : Jumlah variabel bebas
Persamaan Ŷ=15,086 – 1,015 X1 – 0,41 X2
Y X1 X2 Ŷ =15,086 – 1,015 X1 – 0,41 X2 (Ŷ–Y) (Ŷ–Y)2

3 8 10 2,86=15,086 – 1,015 (8) – 0,41(10)


0,14 0,02
4 7 10 3,87=15,086 – 1,015 (7) – 0,41(10)
0,13 0,02
5 7 8 4,69=15,086 – 1,015 (7) – 0,41 (8)
0,31 0,09
6 7 5 5,92=15,086 – 1,015 (7) – 0,41 (5)
0,08 0,01
6 6 4 7,35=15,086 – 1,015 (6) – 0,41 (4)
-1,35 1,83
7 6 3 7,76=15,086 – 1,015 (6) – 0,41 (3)
-0,76 0,58
8 6 2 8,17=15,086 – 1,015 (6) – 0,41 (2)
-0,17 0,03
9 6 2 8,17=15,086 – 1,015 (6) – 0,41 (2)
0,83 0,68
10 5 1 9,60=15,086 – 1,015 (5) – 0,41 (1)
0,40 0,16
10 5 1 9,60=15,086 – 1,015 (5) – 0,41 (1)
0,40 0,16
 (Ŷ – Y)2
3,58
Atau dapat juga dicari dengan rumus sbb:

SY . X1 X 2 
Y 2
 a Y  b1  X 1Y  b2  X 2Y
n3
516  (15,086 x 68)  (1,01524  409)  (0,41 x 239)
SY.X1X 2 
10  3
SY.X1X 2  0,72
Kesalahan baku penduga (standar error
estimation Sb)
 Yaitu seberapa nilai penduga yaitu b1 dan b2
dari nilai sebenarnya (parameter populasi)

S y . x1x 2
Sb1   0,580
 2
(X  n X1 )(1  rX1X 2 )
2 2
1
15

10
5

0
1 2 3 4 5 6 7 8 9 10
n – (k+1) 10 – (2+1)

Y Y'

SY.X1X 2 
 ( Ŷ  Y ) 2


3.58
 0,72
n  (1  k ) 10  (2  1)
S y . x1x 2
Sb 2 
 2
(X  n X 2 )(1  rX1X 2 )
2 2
2

Sb 2  0,156
Uji Signifikansi parsial atau individu

b1  B1  1,015  0
t hit .b1    1,75
Sb1 0,58

b 2  B2  0,410  0
t hit .b 2    2,673
Sb 2 0,1558
Uji Parsial

 Dalam uji pasial, masing-masing koefisien thit


untuk masing-masing koefisien tersebut diuji,
apakah signifikan atau tidak
 Bentuk pengujian sama seperti sebelumnya
dua arah atau satu arah
 Hipothesis yang diuji:
Ho: b1=0 dan Ha: b2  0
UJI GLOBAL ATAU UJI SIGNIFIKANSI
SERENTAK (UJI F)

Hipotesa yang ingin diuji adalah kemampuan variabel bebas


menjelaskan tingkah laku variabel tidak bebas, apabila
variabel bebas tidak dapat mempengaruhi variabel bebas
dapat dianggap nilai koefisien regresinya sama dengan nol,
sehingga berapa pun nilai variabel bebas tidak akan
berpengaruh terhadap variabel bebas. Terhadap persamaan
pada contoh satu yaitu Y = 15,086 – 1,015X1 – 0,41 X2,
variabel bebas X1, dan X2 dikatakan mampu mempengaruhi
Y apabila nilai koefisien b1 dan b2 tidak sama dengan nol,
apabila sama dengan nol, maka dikatakan tidak mampu
mempengaruhi variabel bebas Y.
Tabel F

Untuk uji ini digunakan tabel F. Nilai F-tabel


perlu diketahui derajat bebas pembilang pada
kolom, derajat bebas penyebut pada baris dan
taraf nyata Diketahui ada tiga variabel yaitu Y,
X1, dan X2, jadi k=3, sedangkan jumlah n=10.
Jadi derajat pembilang k - 1=3 - 1=2, sedangkan
derajat penyebut n - k=10 - 3=7 dengan taraf
nyata 5%. Nilai F-tabel dengan derajat pembilang
2 dan penyebut 7 pada taraf nyata 5% adalah
4,74
Nilai F-hitung ditentukan dengan rumus
sebagai berikut:
:

R 2 /( k  1)
F
(1  R 2 ) /( n  3)

0 ,933 /( 3  1)
F  0 ,4665 / 0 ,0096  48 ,73881
( 1  0 ,933) /( 10  3 )
UJI GLOBAL ATAU UJI SIGNIFIKANSI
SERENTAK (UJI F)

Tolak Ho

Terima
Ho

F-Hitung=
F-Tabel=4,74
48,74
Tampilan printout Regresi Berganda

Model R R Square Adjusted R Sts. Eror of


Square the Estimate
1 .647a .419 .379 537549.548

Berdasarkan data Tabel diatas menunjukkan hasil uji


regresi berganda :
( 1 ) Nilai R square = 0,419.
( 2 ) Nilai Ry12 = 0,647.
( 3 ) Nilai SEE = 537.549,547.
Dari data diatas,

 a = 1.000.044.
 b1= 792.852,6.
 b2= 3,378.
 Persamaan regresi yang didapat adalah
sebagai berikut :
 Y = 1.000.044 + 792.852,6 X1 + 3,378 X2
 Dimana, Y = Penjualan, X1 = Harga dan X2
= Biaya Promosi
Model Unstandardized Standardized t Sig.
Coefficients Coefficeient

B Std.Error Beta

1 ( Constant ) 100004 1059097 .752 .944 .353


Harga 792852.6 186021.7 .214 4.262 .000
Biaya promosi 3.378 2.785 1.213 .235
BENTUK FUNGSIONAL
DALAM MODEL REGRESI
1. The Log linear model atau disebut sebagai model
Log-Log
Model Log Linear dituliskan sebagai berikut :
Y   0 X  1e 
Atau
ln Y    1 ln X  

Sifat dari model log-log adalah koefisien beta merupakan ukuran


elastisitas Y terhadap X. Diasumsikan bahwa koefisien elastisitas
antara Y dan x adalah 1 (konstan), yaitu:

Y X X
 1  0 X 1 1 1
 1
X Y 0 X
 Semilog Model, terdiri dari dua model :
 Model Log-Lin
ln Y   1   2 X  u
perubahan _ relatif _ dalam _ Y
2 
perubahan _ absolut _ dalam _ X

 Model Lin- Log

Y   1   2 ln X  u
perubahan _ absolut _ dalam _ Y
2 
perubahan _ relatif _ dalam _ X
Contoh bentuk fungsional regresi :

 Bentuk Lin-Lin

GNP  250.000.000  0,383 Im por


R 2  32,4%

 Bentuk Log-log
LnGNP  5,244  0,794 Ln Im por
R 2  95,6%
 Model Lin-Log

GNP  2.5000.000  170.000.0000 Ln Im por


R 2  71,6%
VARIABEL DUMMY DALAM
PERSAMAAN REGRESI
 Dalam analisa regresi, variabel regressan tidak
hanya dipengaruhi oleh variabel regressor dengan
skala rasion tetapi juga dipengaruhi oleh variabel
kualitatif dengan skala nominal, seperti jenis
kelamin, suku, warna, agama , kebangsaan, daeirah
geografis dan lain sebagainya.
 Secara artfisial, atribut seperti itu dikuantitatifkan
dengan nilai 1, 0 tau 2 dan seterusnya. Misalnya
laki-laki = 1 dan perempuan =0. variabel dengan
nilai 1 dan 0 tersebut disebut variabel boneka atau
dummy.
Contoh model regresi dengan variabel dummy :

Y   0  1 D1   2 D2  
Di mana :
Y = rata-rata gaji guru negeri per hari
X = pengeluaran pemerintah per hari untuk pendidikan
D1 = 1 Jika guru tersebut tinggal di Jakarta
0 Jika guru tersebut tinggal di kota luar jakarta
D2 = 1 Jika guru tersebut suku Jawa
0 Jika guru tersebut bukan dari suku jawa
Hasil dari analisa regresi tersebut adalah sebagai berikut :
Y  13269,11  1373,51D1  1144,157D2  32889 X
t = (9,5) (-2,08) (1,32) (10,3)
R 2  0,7266
 Analisa : Koefisien D2 tidak signifikan pada tingkat alpha 5%.
Sedangkan koefisen variabel yang lian signifikan secara statistik.
 Jika pengeluaran Pemerintah untuk pendidikan naik satu rupiah,
maka gaji guru rata-rata akan naik sebesar 3,2889 rupiah.
 Dari hasil diatas dapat diinterpretasikan adalah :

 Bahwa gaji guru rata-rata yang tinggal di kota Jakarta dan ber suku Jawa
adalah Rp. 10451 per hari.
 Gaji guru yang tinggal di Jakarta dan bukan suku Jawa adalah rata-rata Rp.
11596 per hari
 Gaji rata-rata guru yang tinggal di kota luar jakarta dan berasal dari suku
Jawa adalah Rp. 12125 per hari
 Dan rata-rata gaji guru yang tinggal di luar Jakarta dan bukan dari suku Jawa
adalah Rp. 13269 per hari
CHOW TEST atau variabel dummy?

Chow test adalah pengujian untuk melihat


apakah dua persamaan regresi sama atau
berbeda. Apabila peneliti tidak menggunakan
variabel dummy, maka akan digunakan Chos
Test . Tetapi dalam Chow Test tidak dapat
dijelaskan apakah perbedaan regresi terjadi
karena perbedaan titik potong atau karena
perbedaan slop koefisien.
CHOW Test

 H0 : Kedua persamaan regresi sama


 Ha : Kedua persamaan regresi tidak sama
(berbeda)
RSS 4  RSS 2  RSS 3
RSS 5  RSS 1  RSS 4
RSS 5
F k
RSS 4
(n1  n 2  2k )
Ada berbagai kemungkinan yang
terjadi pada dua persamaan regresi :
 Coincident regresi
Titik Potong dan Koefisien slope sama pada dua
regresi
 Parallel Regression
Titik potong berbeda tetapi koefisien sama pada
dua regresi
 Concurrent Regression
Titik potong sama tetapi koefisein slope berbeda
pada dua garis regresi
 Dissimilar Regression
Keuntungan dengan Dummy
dibandingkan dengan Chow test
 Dengan variabel dummy hanya dibutuhkan satu
persamaan regredi, sedangkan pada chow test
dibutuhkan dua persamaan regresi
 Dengan variabel dummy hipotesa dapat dilakukan
secara simultan, sedangkan pada chow test,
karena terdapat dua persamaan maka hipotesa
terpisah untuk setiap persamaan
 Dengan variabel dummy derajat kebebasan lebih
tinggi sehingga tingkat signifikansi akan lebih baik.
Multi kolinearitas
Multi kolinearitas adalah adanya hubungan (korelasi) diantara
variabel-variabel independen (X)

Penyebab Multikolinearitas :
 Terbatasnya variabel independen karena adanya
keterbatasan dalam pengumpulan data.
 Kendala Model pada populasi yang diamati. Contoh diuji
pengaruh antara Konsumsi Listrik dengan Pendapatan dan
Luas Rumah
 Variabel Independen yang berjumlah lebih banyak dari jumlah
observasinya (n)
 Data yang bersifat time series, dimana semua data memiliki
pertumbuhan yang sama.
Deteksi ada tidaknya multikolinearitas :

1. Koefisien determinasi yang tinggi, dan nilai signifikannsi t rendah pada setiap
variabel X
2. Koefisien korelasi diantara variabel X tinggi (diatas 0,5)
3. Nilai Koefisien parsial yang tinggi. r 2  r 2  2r r r
2
R3.12  31 32 31 32 12

1  r122
4. Auxiliary Regression. Dimana nilai F auxiliary harus dihitung. Jika nilai F
auxiliary lebih tinggi dari nilai F table, maka dapat dikatakan terdapat
multkolinearitas. 2
Rxi  xk /( k  2)
F
(1  Rxi2  xk ) /( n  k  1)
5. Eigen value dan Condition Index (CI)
Condition Number (k) = maximum eigen value/eigen value
Condition Index (CI) = k0,5
Jika 100  k  1000 maka terjadi multikolinearitas ringan. Jika k > 1000 maka
terjadi multikoliner berat. Dan jika CI> 30 juga dapat dianggap terjadi
multikoliner serius.

6. Tolerance dan Variance Inflation factor (VIF). Nilai VIF > 10 dan nilai TOL yang
mendekati 0, maka dideteksi terjadi Multikolinearitas.

1 1
VIF  TOL 
1  r 212 VIF
Mengatasi Masalah Multikolinearitas :

 membuang salah satu variabel yang


berkolinearitas. Untuk menentukan variabel
mana yang dibuang, dilakukan coba-coba.
Dan dipilih persamaan yang memiliki nilai
adjusted R2 yang lebih tinggi.
 Menambah jumlah sample, karena mungkin
saja multikolinearitas terjadi hanya untuk
sample yang saat ini saja.
Contoh Soal
225 4 12.6
243 5 13.5
254 5 13.6
266 3 14.9
253 4 12.7
246 2 13.0
222 5 12.5
244 3 13.2
266 4 13.7
237 4 14.2
257 3 14.6
279 5 14.0
280 9 15.2
266 2 15.7
Correlations

sales
t s hirt s old promotion promotion
per month girls cost Model Summaryb
Pearson Correlation t s hirt s old per month 1,000 ,250 ,708
sales promotion girls ,250 1,000 ,082 Adjusted Std. Error of Durbin-W
promotion cost ,708 ,082 1,000 Model R R Square R Square the Es timate ats on
Sig. (1-tailed) t s hirt s old per month . ,194 ,002 1 ,734a ,538 ,455 13,210 2,113
sales promotion girls ,194 . ,390 a. Predictors: (Constant), promotion cost, sales promotion girls
promotion cost ,002 ,390 .
b. Dependent Variable: t s hirt sold per month
N t s hirt s old per month 14 14 14
sales promotion girls 14 14 14
promotion cost 14 14 14

ANOVAb

Sum of
Model Squares df Mean Square F Sig.
1 Regres sion 2239,249 2 1119,624 6,416 ,014a
Residual 1919,608 11 174,510
Total 4158,857 13
a. Predic tors : (Const ant), promot ion c ost , sales promotion girls
b. Dependent Variable: t shirt sold per month Coeffi cientsa

Unstandardized St andardiz ed
Coeffic ient s Coeffic ient s Correlations Collinearity Statist ics
Model B St d. Error Beta t Sig. Zero-order Partial Part Tolerance VIF
1 (Const ant) 74,122 50,754 1,460 ,172
sales promotion girls 1,976 2,103 ,193 ,940 ,368 ,250 ,273 ,192 ,993 1,007
promotion cos t 12,335 3,663 ,692 3,368 ,006 ,708 ,713 ,690 ,993 1,007
a. Dependent Variable: t shirt sold per month

a
Co llin earity Diag nostics

Variance P roportions
sales
Condit ion promotion promotion
Model Di mension Ei genvalue Index (Const ant) girls cost
1 1 2,901 1,000 ,00 ,02 ,00
2 ,097 5,468 ,01 ,98 ,01
3 ,002 34,463 ,99 ,00 ,99
a. Dependent Variable: t shirt sold per m onth
Autokorelasi

Otokorelasi adalah korelasi atau hubungan yang terjadi


diantara anggota-anggota dari serangkaian data atau
pengamatan yang tersusun dalam rangkaian waktu.

Penyebab terjadinya auto korelasi :


 Kelembaman data.

 Mengeluarkan variabel yang relevan dalam model

 Tengang waktu atau lags

 Manipulasi data

 Non stasioner
Hal yang terjadi akibat dari otokorelasi adalah :

 Varians sample tidak dapat


menggambarkan varians populasi
 Uji t tidak berlaku lagi, apabila uji t tetap
diberlakukan maka uji t tersebut tidak
berlaku lagi
 Model regresi yang digunakan tidak dapat
digunakan untuk menduga variabel terikat
ataupun variabel terikat tertentu
Deteksi Autokorelasi:
Durbin Watson Test
Prosedur pengujian :
H0 : Tidak ada autokorelasi
H1 : Ada autokorelasi

Kriteria pengujian :
 otokorelasi positif
 H0 terima jika d > du
Ho tolak jika d < dl
 Jika dl < d < du, maka tidak ada kesimpulan
otokorelasi negatif
 Ho terima jika (4 – d) > du
 Ho tolak jika (4-d) < dl
 Jika dl < (4-d) < du, maka tidak ada kesimpulan
Contoh Kasus

Model Summaryb

Adjusted Std. Error of Durbin-W


Model R R Square R Square the Es timate ats on
1 ,734a ,538 ,455 13,210 2,113
a. Predictors: (Constant), prom otion cost, sales promotion girls
b. Dependent Variabl e: t s hirt sold per month
Menghilangkan masalah autokorelasi :

Memilih variabel independen yang relevan


ke dalam model. Indikator yang dipakai
untuk mengukur variabel yang relevan ke
dalam model :
Signifikansi statistik

Koefisien determinasi

Standardized koefisien absolut

Stepwise Regression
Uji Normalitas Data

Histogram
Dependent Variable: t shirt sold per month
6

2
Frequency

Std. Dev = ,92


1
Mean = 0,00
0 N = 14,00
-1,50 -,50 ,50 1,50
-1,00 0,00 1,00

Regres s ion Standardiz ed Res idual


Normalitas Data :
Kolmogorov smirnov
One-Sample Kolmogorov-Smirnov Test

sales
t s hirt s old promotion promotion
per month girls cost
N 14 14 14
Normal Parameters a,b Mean 252,71 4,14 13,814
Std. Deviation 17,886 1,748 1,0037
Most Extreme Absolute ,128 ,240 ,117
Differences Positive ,086 ,240 ,117
Negative -,128 -,114 -,095
Kolmogorov-Smirnov Z ,480 ,900 ,437
As ymp. Sig. (2-tailed) ,975 ,393 ,991
a. Test distribution is Normal.
b. Calculated from data.
Statistic Std. Error
t shirt sold per month Mean 252.7143 4.78026

Median 253.5000
Variance 319.912

Std. Deviation 17.88609


Minimum 222.00
Maximum 280.00
Range 58.00
Interquartile Range 24.5000
Skewness -.164 .597

Kurtosis -.633 1.154

sales promotion girls Mean 4.1429 .46713


Median 4.0000
Variance 3.055
Std. Deviation 1.74784
Minimum 2.00
Maximum 9.00
Range 7.00
Interquartile Range 2.0000
Skewness 1.562 .597

Kurtosis 4.106 1.154


promotion cost Mean 13.8143 .26826
Median 13.6500
Variance 1.007
Std. Deviation 1.00373
Minimum 12.50
Maximum 15.70
Range 3.20
Interquartile Range 1.7500
Skewness .438 .597
Kurtosis -.776 1.154
Heterosekedastisitas

Penyebab :
 Data yang mengikuti learning model

 Adanya outlier dalam sekelompok data

 Kesalahan dalam memilih variabel

 Skewness atau kemencengan dalam variabel


tertentu
Mendeteksi Heterosekedastisitas

Scatterplot
Dependent Variable: t shirt sold per month
290

280

270

260

250

240

230

220
230 240 250 260 270 280

Regres s ion Adjus ted (Pres s ) Pr edic ted V alue


MODEL REGRESI
DENGAN DATA PANEL
MODEL PERSAMAAN SIMULTAN
PEMODELAN EKONOMETRIKA

a. Kriteria Seleksi Model


 Data harus dapat diterima, apabila data hilang dari
model, maka model regresi yang ada dapat
meramalkan data yang hilang tersebut
 Model regresi konsisiten dengan teori atau
memeberikan makna bagi teori perekonomian secara
baik
 X adalah non stokastik, sedangkan Y adalah stokastik
 Nilai koefisien harus stabli, sehingga dapat dilakukan
peramalan
 Model harus dapat meliputi atau mencakup semua
penjelasan dari model yang sudah ada sebelumnya.
 Tipe Kesalahan Spesifikasi Model
 Mengeluarkan variabel yang relevan dari model
 Memasukkan variabel yang tidak relevan ke dalam
model
 Mengadopsi bentuk fungsional yang salah
 Kesalahan dalam pengambilan data
 Konsekuensi Kesalahan Model
 Underfitting : mengeluarkan variabel yang relevan dari
model regresi, konsekuensinya adalah:
 Koefisien penduga menjadi bias, tidak dapat menduga
koefisien populasinya.
 Interval keyakinan koefisien dari persamaan regresi
memberikan hasil yang tidak benar
 Tidak dapat melakukan peramalan dari hasil model yang
didapat dari sampel
 Overfitting : memasukkan variabel yang tidak relevan
ke dalam model regresi, konsekuensinya :
 Koefisien pada model regresi sampel tidak benar
 Interval keyakinan dari koefisiennya masih valid
 Harus menggunakan tingkat siginifikan yang sesuai
Ramsey’s Test

 Ramsey test merupakan uji kesalahan


spesifikasi model yang sering disebut
sebagai Regression Specification Error Test
(RESET).
 Contoh penggunaan ramsey test adalah,
misalkan fungsi biaya yaitu :
output Biaya Total

1 193
2 226
3 240
4 244
5 257
6 260
7 274
8 297
9 350
10 420
 Hitung taksiran Y, dari hasil Eviews:
Y = 166,4667 + 19,9333X
P = (0,0000) (0,00002)
R2 = 0,8409
Regresikan kembali model diatas dengan bentuk kuadrat atau
bentuk kubik dan dengan menambahkan variabel X,
menjadi :
Y=
 Hasil Output E views adalah sbb:
Y = 2140,215 + 476,5521X – 0,0919X2 + 0,0001X3
P= (0,0000) (0,0000) (0,0000) (0,0000)
R2 = 0,9983

Vous aimerez peut-être aussi