Sunum yükleniyor. Lütfen bekleyiniz

Sunum yükleniyor. Lütfen bekleyiniz

Mehmet Vedat PAZARLIOĞLU

Benzer bir sunumlar


... konulu sunumlar: "Mehmet Vedat PAZARLIOĞLU"— Sunum transkripti:

1 Mehmet Vedat PAZARLIOĞLU
KUKLA DEĞİŞKENLER Mehmet Vedat PAZARLIOĞLU

2 Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi karışıklıklar (=darbeler), iktisat politikasındaki değişiklikler, depremler, yangın ve benzeri nitel değişkenlerin ekonometrik bir modelde ifade edilme şeklidir.

3 Kukla Değişkenlerin Modelde Kullanımı
Kukla Değişken/lerin Modelde bağımsız değişken olarak yer alması Kukla Değişkenin Modelde Bağımlı Değişken olarak yer alması

4 Bağımsız Kukla Değişkenler
Bir kukla değişkenli modeller (Varyans Analiz Modelleri) Kukla değişkenlerin ve Sayısal değişkenlerin Birlikte yer aldığı Modeller (Kovaryans Analizi Modeller) Kukla değişkenlerin karşılıklı olarak birbirini etkilemeleri Mevsim dalgalanmalarının ölçülmesinde kukla değişkenler Parçalı Doğrusal Regresyon

5 Bir kukla değişkenli modeller
Yi = a + b Di +ui Yi = Öğretim Üyelerinin Yıllık Maaşları Di = 1 Öğretim Üyesi Erkekse = 0 Diğer Durumlar (yani Kadın Öğretim Üyesi) Varyans Analiz Modelleri (ANOVA) Kadın Öğretim Üyelerinin Ortalama Maaşları: E( Yi|Di = 0 ) = a Erkek Öğretim Üyelerinin Ortalama Maaşları : E ( Yi|Di = 1) = a + b

6 Bir kukla değişkenli modeller
Maaş Cinsiyet 22 1 19 18 21.7 18.5 21 20.5 17 17.5 21.2 Yi = Di (0.32) (0.44) t (57.74)(7.44) , R2=0.8737

7 Bir kukla değişkenli modeller
Yi = Di (0.32) (0.44) t (57.74)(7.44) , R2=0.8737 Kadın Öğretim Üyelerinin Ortalama Maaşları: E( Yi|Di = 0 ) = 18 Erkek Öğretim Üyelerinin Ortalama Maaşları : E ( Yi|Di = 1) = = 21.28 Erkek ve Kadın Öğretim Üyelerinin Ortalama Maaş Farkı : 3.28

8 Bir kukla değişkenli modeller
3.28 21.28 18.00 1 Yi = Di (0.32) (0.44) t (57.74)(7.44) , R2=0.8737

9 Kukla değişken ve Sayısal Değişkenli Model
Yi = a1 + a2 Di + b Xi + ui Yi = Öğretim Üyelerinin Yıllık Maaşları Xi = Öğretim Üyesinin Yıl olarak Tecrübesi Di = 1 Öğretim Üyesi Erkekse = 0 Diğer Durumlar (yani Kadın Öğretim Üyesi) Kadın Öğretim Üyelerinin Ortalama Maaşları : E( Yi|Xi,Di = 0 ) = a1+bXi Erkek Öğretim Üyelerinin Ortalama Maaşları : E ( Yi|Xi,Di = 1) = (a1 + a2 )+bXi

10 Kukla değişken ve Sayısal Değişkenli Model
Maaş Cinsiyet Tecrübe 22 1 16 19 12 18 21.7 15 18.5 10 21 11 20.5 13 17 8 17.5 9 21.2 14 Yi = Di Xi s(b) (0.95) (0.44) (0.09) (t) (15.843) (5.088) (3.211) p (0.000) (0.002) (0.020) R2=0.949

11 Kukla değişken ve Sayısal Değişkenli Model
Yi = Di Xi (t) (15.843) (5.088) (3.211) p (0.000) (0.002) (0.020) Kadın Öğretim Üyelerinin Maaş Fonksiyonu: E( Yi|Di = 0 ) = Xi Erkek Öğretim Üyelerinin Maaş Fonksiyonu: E( Yi|Di = 1 ) = Xi = Xi Erkek ve Kadın Öğretim Üyelerinin Ortalama Maaş Farkı : 2.239

12 Kukla değişken ve Sayısal Değişkenli Model
2.239 17.29 15.051 E( Yi|Di = 0 ) = Xi E( Yi|Di = 1 ) = Xi = Xi

13 Birden Fazla Kukla Değişkenli Modeller
Yi= b1 + b2D2 + b3D3 + b4Xi + ui Yi = Sigara Tüketimi D2 = 1 Sigara Tüketen Erkek D3 = 1 Şehirde oturanların sigara tüketimi = 0 Sigara Tüketen Kadın = 0 Kırsalda oturanların sigara tüketimi Xi = Gelir Kırdaki Kadınların Sigara Tüketimi: E( Yi|D2=0,Yi|D3=0) = b1 + b4Xi Kırdaki Erkeklerin Sigara Tüketimi : E (Yi|D2=1,Yi|D3=0) = b1 + b2D2 + b4Xi Kentteki Kadınların Sigara Tüketimi: E( Yi|D2=0,Yi|D3=1 ) = b1 + b3D3 + b4Xi Kentteki Erkeklerin Sigara Tüketimi: E( Yi|D2=1,Yi|D3=1 ) = b1 + b2D2 + b3D3 + b4Xi

14 Birden Fazla Kukla Değişkenli Modeller
Yıllık Sigara Tüketimi Yi (100 TL) Cinsiyet(D3) Şehir(D3) Yıllık Gelir (Xi)(100 TL) 25 1 400 20 260 19 270 24 360 240 22 310 21 280 18 200 320

15 Birden Fazla Kukla Değişkenli Modeller
Yi= b1 + b2D2 + b3D3 + b4Xi + ui Yi = Sigara Tüketimi D2 = 1 Sigara Tüketen Erkek D3 = 1 Şehirde oturanların sigara tüketimi = 0 Sigara Tüketen Kadın = 0 Kırsalda oturanların sigara tüketimi Xi = Gelir Dependent Variable: Y Variable Coefficient Std. Error t-Statistic Prob. C 0.0001 D2 0.3662 D3 0.2014 X 0.0017 R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter.

16 1.Sabit Terimlerin Farklı Eğimlerin Eşit olması
Yi= a1 + a2Di + bXi + ui Yi = Sigara Tüketimi Di = 1 Sigara Tüketen Erkek = 0 Xi = Gelir E( Yi|Xi,Di = 0 ) = a1+bXi E ( Yi|Xi,Di = 1) = (a1 + a2 )+bXi

17 Kukla değişken ve Sayısal Değişkenli Model
Yi= a1 + a2Di + b2Xi + ui a2 a1+a2 a1

18 2. Sabit Terimlerin Eşit, Eğimlerin Farklı Olması Hali
Yi= a1 + b1Di Xi+ b2Xi + ui Yi = Sigara Tüketimi Di = 1 Sigara Tüketen Erkek = 0 Xi = Gelir E( Yi|Xi,Di = 0 ) = a1+b2Xi E ( Yi|Xi,Di = 1) = a1 + (b1+b2)X i

19 2. Sabit Terimlerin Eşit, Eğimlerin Farklı Olması Hali
Yi= a1 + b1Di Xi+ b2Xi + ui Yi E ( Yi|Xi,Di = 1) = a1 + (b1+b2)X i b1 + b2 ) E( Yi|Xi,Di = 0 ) = a1+b2Xi b2 ) a1 Xi 19

20 3. Sabit Terim ve Eğimin İki Sınıf İçin Farklı Olması
Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui Yi = Sigara Tüketimi Di = 1 Sigara Tüketen Erkek = 0 Xi = Gelir E( Yi|Xi,Di = 0 ) = a1+b2Xi E ( Yi|Xi,Di = 1) = (a1+a1 ) + (b1+b2)X i

21 3. Sabit Terim ve Eğimin İki Sınıf İçin Farklı Olması
Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui Yi E ( Yi|Xi,Di = 1) = (a1+a1 ) + (b1+b2)X i E( Yi|Xi,Di = 0 ) = a1+b2Xi a1+a2 a1 b2 b1+b2 ) ) Xi 21

22 Modelin t İstatistiklerinin Değerlendirilmesi
Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui a2 ve b1’ün t istatistikleri anlamsızsa iki sınıf sigara tüketim fonksiyonları aynı 2.a2 ve b1’ün t istatistikleri anlamlıysa iki sınıf sigara tüketim fonksiyonları farklı (3.durum) a2 ve b1’ün t istatistiklerinden a2 anlamsız ve b1 anlamlıysa sabit terim aynı eğim farklıdır. (2. durum) 4. a2 ve b1’ün t istatistiklerinden a2 anlamlı ve b1 anlamsızsa sabit terim farklı eğim aynıdır. (1. durum)

23 Yıllık Sigara Tüketimi Cinsiyet (Di) (Erkek = 1, Kadın = 0)
İki Sınıf Modellerinin Farklılığının Kukla Değişken Yöntemi İle Testi Yıllık Sigara Tüketimi Cinsiyet (Di) (Erkek = 1, Kadın = 0) Yıllık Gelir (Xi) 25 1 400 20 260 19 270 24 360 240 22 310 21 280 18 200 320 Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui 23

24 Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui
İki Sınıf Modellerinin Farklılığının Kukla Değişken Yöntemi İle Testi Yi= a1 + a2 Di+ b1Di Xi+ b2Xi + ui Dependent Variable: Y Variable Coefficient Std. Error t-Statistic Prob. C 0.0012 D2 0.3016 D2*X 0.2017 X 0.1507 R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter. Dependent Variable: Y Variable Coefficient Std. Error t-Statistic Prob. C 0.0000 X R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter. 24

25 2. CHOW testi ile tüketim fonksiyonlarının farklılığının araştırılması
Üç grup tüketim fonksiyonu tahmin edilir: H0: Erkek ve kadınlar için tüketim fonk. aynıdır. H1: Erkek ve kadınlar için tüketim fonk. farklıdır. Erkek-kadın tüm tüketiciler için tüketim fonksiyonu: HKT=3.162 Erkekler için tüketim fonksiyonu: HKT=0.2018 Kadınlar için tüketim fonksiyonu: HKT=1.865 Ftest = Ftab= 5.14 (a= f1= f2=6 sd. lerinde) H0 kabul

26 Birden Fazla Kukla Değişkenli Modeller
Yıllık Sigara Tüketimi Yi (100 TL) Cinsiyet(D3) Şehir(D3) Yıllık Gelir (Xi)(100 TL) 25 1 400 20 260 19 270 24 360 240 22 310 21 280 18 200 320

27 Birden Fazla Kukla Değişkenli Modeller
Yi= b1 + b2D2 + b3D3 + b4Xi + ui Dependent Variable: Y Variable Coefficient Std. Error t-Statistic Prob. C 0.0001 D2 0.3662 D3 0.2014 X 0.0017 R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter. Dependent Variable: Y Variable Coefficient Std. Error t-Statistic Prob. C 0.0000 D3 0.1013 X 0.0001 R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter.

28 BİR MODELDE KUKLA DEĞİŞKENLERİN KARŞILIKLI OLARAK BİRBİRİNİ ETKİLEMELERİ PROBLEMİ
Şehirde Oturan bir Erkeğin Tüketim Farkı Erkeğin Tüketim Farkı Şehirde Oturanların Tüketim Farkı 28

29 Birden Fazla Kukla Değişkenli Modeller
Yi= b1 + b2D2 + b3D3 + b4D2D3 + b5Xi + ui Yi= b1 + b5Xi Yi= b1 + b2D2 + b5Xi Yi= b1 + b3D3 + b5Xi Yi= b1 + b2D2 + b3D3 + b4D2D3 + b5Xi Dependent Variable: Y Variable Coefficient Std. Error t-Statistic Prob. C 0.0004 D2 0.187 D3 0.1066 D2*D3 0.2597 X 0.0307 0.0022 R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter.

30 Üçer Aylar Karlar (Milyon Dolar) Satışlar 1965-I 10503 114862 II 12092
MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN FAYDALANMA Üçer Aylar Karlar (Milyon Dolar) Satışlar 1965-I 10503 114862 II 12092 123968 III 10834 121454 IV 12201 131917 1966-I 12245 129911 14001 140976 12213 137828 12820 145465 D2 1 D3 1 D4 1 30

31 Dependent Variable: Kar
MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN FAYDALANMA Dependent Variable: Kar Variable Coefficient Std. Error t-Statistic Prob. C D D D Satış R2= İstatistiki olarak anlamsız 31

32 MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN FAYDALANMA
Dependent Variable: Kar Sample: 1965:1 1970:4 VariableCoefficient Std. Error t-Statistic Prob. C D Satış R2 = Mevsim dalgalanmalarının etkisinde 32

33 Parçalı Doğrusal Regresyon
Bir sigorta şirketi satış temsilcilerinin belli bir satış hacmini geçmesi durumunda çalışanlarına komisyon ödemektedir. Şirket içerisinde gerçekleştirilen satış komisyon ücretleri belli bir satış hacmi(X*) eşik düzeyine kadar doğrusal artmakta ve bu eşik düzeyinden sonra ise daha dik bir oranla satışlarla doğrusal olarak arttığı varsayılmaktadır. Bu durumda I ve II olarak numaralandırılmış iki parçadan oluşan parçalı doğrusal regresyona ve eşik düzeyinde eğimin değiştiği komisyon fonksiyonuna sahip olmuş oluruz. II Satış Komisyonları I X* X 33

34 Parçalı Doğrusal Regresyon
Satış Komisyonları Y X Satışlar Yi= a1 + b1Xi + b2 (Xi-X*)Di+ui Yi= Satış Komisyonları Xi= Satış Miktarı X*= Satışlarda Prim Eşik Değeri D= 1 Eğer Xi > X* = 0 Eğer Xi < X* X* E(Yi| Di =0,Xi, X*) = a1 +b1 Xi E(Yi| Di =1,Xi, X*) = a1 - b2X* +(b1+ b2)Xi

35 Parçalı Doğrusal Regresyon
Satış Komisyonları Y X Satışlar b1+b2 1 b1 1 a1 X* a1-b2X*

36 Örnek Bir şirket satış temsilcilerinin belli bir satış hacmini geçmesi durumunda çalışanlarına prim ödemektedir. Dependent Variable: TC Included observations: 10 Variable Coefficient Std. Error t-Statistic Prob. C Q (Q-5500)*DI R2= F-statistic= [ ] Total Cost($) TC Output(units) Q Di 256 1000 414 2000 634 3000 778 4000 1003 5000 1839 6000 1 2081 7000 2423 8000 2734 9000 2914 10000 Satışlardaki artışlar prim değerini arttırmamaktadır. İstatistiki olarak anlamsız H0: Satışlardaki artışlar prim değerini arttırmamaktadır. H1: Satışlardaki artışlar prim değerini arttırmaktadır.

37 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI
UYGULAMA: yıllarına arasında General Motor, Westinghouse ve General Electric firmalarına ait yatırım (Y), firmanın değeri (X2 ) ve sermaye stoğu (X3) verilerine ait tablo aşağıda verilmiştir. 37

38 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI
Firmaların yatırımları arasında fark olup olmadığını inceleyebilmek için de kukla değişkenlerden yararlanabiliriz. Firmaların ilk üç yılına ait veriler ile oluşturulan yeni tablo aşağıdaki gibidir. Yıllar Y X2 X3 Di Firma 1935 317.6 3078.5 2.8 1 GM 1936 391.8 4661.7 52.6 1937 410.6 5387.1 156.9 12.93 191.5 1.8 WE 25.90 516.0 0.8 35.05 729.0 7.4 33.1 1170.6 97.8 GE 45.0 2015.8 104.4 77.2 2803.3 118.0 General Motor(GM), Westinghouse(WE) ve General Electric (GE) yatırım (Y), firmanın değeri (X2 ) ve sermaye stoğu (X3) 38

39 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI
GM yatırımlarının diğer firma yatırımlarından sabit terim kadar farklı olduğunu ifade etmektedir.

40 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI
Dependent Variable: Y Method: Least Squares Included observations: 60 Variable Coefficient Std. Error t-Statistic Prob. C X X DI R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) İstatistiksel olarak anlamlı 40

41 ÖRNEKLER 41

42 DATA7-19 1960-1988 yılları arasında Türkiye’deki Sigara Tüketimi
Q Yetişkinlerin sigara tüketim miktarı(kg), Range Y GNP(1968) TL, Range P Türkiye’deki sigara fiyatları Range ED1 Kayıtlı ortaokul ve lise mezunu nüfus oranı(12-17 yaş) Range ED2 Kayıtlı üniversite mezunu oranı (20-24) Range D82 = 1 , 1982 ve sonrası D86 = 1 , ve sonrası 42

43 Included observations: 29
Dependent Variable: Q Sample: Included observations: 29 Variable Coefficient Std. Error t-Statistic Prob. P ED ED D D Y C Katsayılar istatistiksel olarak anlamsız 43

44 Included observations: 29
Dependent Variable: Q Method: Least Squares Sample: Included observations: 29 Variable Coefficient Std. Error t-Statistic Prob. ED D D Y C 44

45 DATA7-2 Belirli bir şirkette çalışan 49 kişinin istihdam durumu ve ücretleri WAGE = Aylık Ücret (Range ) EDUC = 8 yıllık eğitimden sonraki sahip olunan eğitim seviyesi(Range ) EXPER =Şirkette çalışma süresi(Range ) AGE = Yaş ( ) GENDER = 1, Erkek ise; 0 kadın ise RACE = 1, beyaz ise; 0 diğerleri CLERICAL = 1 büro memuru ise, 0 diğerleri MAINT = 1 bakım işlerinde çalışıyor ise; 0 diğerleri CRAFTS =1,usta ise; 0 diğerleri Temel sınıf Profesyonel meslek grupları. 45

46 Dependent Variable: WAGE Method: Least Squares
Included observations: 49 Variable Coefficient Std. Error t-Statistic Prob. C EDUC EXPER GENDER RACE CLERICAL MAINT CRAFTS R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) 46

47 DATA 7-9 colgpa = 1986 sonbaharındaki ortalamaları (Range 0.85 - 3.97)
1985 yılında koleje giriş yapan öğrencilerin ilk yıl başarılarını göstermekte colgpa = sonbaharındaki ortalamaları (Range ) hsgpa = Lise GPA (Range ) vsat = Sözel derecesi (Range ) msat = Sayısal derecesi (Range ) dsci = 1 Bilim dalı için, 0 diğerleri dsoc = 1 Sosyal bilim dallı için, 0 diğerleri dhum = 1 Beşeri bilimdalı için 0 diğerleri darts = 1 Sanat dalı için, 0 diğerleri dcam = 1 Öğrenci kampüste yaşıyorsa, 0 diğerleri dpub = 1 Genel lise mezunu ise, 0 diğerleri 47

48 Dependent Variable: COLGPA Method: Least Squares Sample: 1 427
Included observations: 427 Variable Coefficient Std. Error t-Statistic Prob. C HSGPA VSAT MSAT DSCI DSOC DHUM DARTS DCAM DPUB Katsayılar istatistiki olarak anlamsız 48

49 Dependent Variable: COLGPA
Variable Coefficient Std. Error t-Statistic Prob. C HSGPA VSAT MSAT 49

50 Bağımlı Kukla Değişkenler
Bağımlı değişken özünde iki değer alabiliyorsa yani bir özelliğin varlığı ya da yokluğu söz konusu ise bu durumda bağımlı kukla değişkenler söz konusudur. Bu durumdaki modelleri tahmin etmek için dört yaklaşım vardır: -Doğrusal Olasılık Modeli -Logit Modeli -Probit Modeli -Tobit Modeli

51 Doğrusal Olasılık Modeli
Yi = b1 + b2Xi +ui Yi= 1 Eğer i. Birey istenen özelliğe sahipse 0 Diğer Durumlarda Xi= Bağımsız değişken Bu modele olasılıklı model denmesinin nedeni, Y’nin X için şartlı beklenen değerinin, Y’nin X için şartlı olasılığına eşit olmasıdır. E(Yi|Xi)= Pr(Yi=1| Xi)

52 Doğrusal Olasılık Modeli
Yi = b1 + b2Xi +ui E(ui) = 0 E(Yi |Xi)= b1 + b2Xi Yi değişkeninin olasılık dağılımı: Yi Olasılık 1-Pi 1 Pi Toplam E(Yi |Xi) = SYiPi = 0.(1-Pi) + 1.(Pi) = Pi E(Yi |Xi)= b1 + b2Xi 0  E(Yi |Xi)  1

53 Doğrusal Olasılık Modeli
Di = b1 + b2Medenii +b3 Egitimi +ui Di= 1 Eğer i. Kadının bir işi varsa ya da iş arıyorsa 0 Diğer Durumlarda Medenii= 1 Eğer i. Kadın evliyse diğer durumlarda 0 Eğitimi = i.kadının yıl olarak aldığı eğitim Yaşi = i. Kadının Yaşı

54 Di Mi Ai Si 1 31 16 35 10 34 14 40 41 43 67 9 37 12 25 27 13 58 28 45 48 55 66 7 44 11 8 21 15 62 23 51 39

55 Kadının İşgücüne Katılımı Modeli
Di = b1 + b2Medenii +b3 Egitimi Dependent Variable: DI Included observations: 30 Variable Coefficient Std. Error t-Statistic Prob. C -0.284 0.436 -0.652 0.520 MEDENI -0.382 0.153 -2.494 0.019 EGITIM 0.093 0.035 2.688 0.012 R-squared 0.363 F-statistic 7.708 Adjusted R-squared 0.316 Prob(F-statistic) 0.002 S.E. of regression 0.412 Akaike info criterion 1.159 Sum squared resid 4.583 Schwarz criterion 1.299 Durbin-Watson stat 2.551 Hannan-Quinn criter. 1.204

56 Farklı Varyans Testi Heteroskedasticity Test: Breusch-Pagan-Godfrey
F-statistic Prob. F(2,27) 0.3949 Obs*R-squared Prob. Chi-Square(2) 0.3687 Test Equation: Dependent Variable: RESID^2 Variable Coefficient Std. Error t-Statistic Prob. C 0.063 MEDENI 0.625 EGITIM 0.232 R-squared Mean dependent var 0.153 Adjusted R-squared S.D. dependent var 0.162 S.E. of regression Akaike info criterion -0.708 Sum squared resid Schwarz criterion -0.568 Hannan-Quinn criter. -0.663 Prob(F-statistic) Durbin-Watson stat 2.085

57 Di Tahmin Değerleri Di Di-tah 1 1.204 0.646 0.636 0.822 0.264 0.553
0.264 0.553 0.450 0.832 0.925 1.018 -0.015 0.357 0.460 0.739 1.111 0.543 0.171

58 DOM Tahminindeki Sorunlar
ui hata teriminin normal dağılmaması ui hata teriminin Binom Dağılımlı Olması ui hata teriminin değişen varyanslı olması 0  E(Yi |Xi)  1 varsayımının yerine gelmeyişi

59 ui hata teriminin normal dağılmaması
Normallik varsayımının sağlanmaması durumunda tahmin ediciler sapmasızlıklarını korurlar. Nokta tahminde normallik varsayımı gözardı edilir. Örnek hacmi sonsuza giderken EKK tahmincileri çoğunlukla normal dağılıma uyarlar. DOM ile yapılan istatistiksel çıkarsamalar normallik varsayımı altındaki EKK sürecine uyarlar.

60 ui hata teriminin Binom Dağılımlı Olması
DOM’de u’lar normal dağılmaz, binom dağılımı gösterir: Y ve 0 değerini aldığında Yi =1 için Yi =0 için u’lar normal değildir. İki değerli binom dağılımlıdır. Ancak büyük örneklerde DOM güven aralıkları ve hipotez testleri geçerlidir ve EKKY normal dağılım varsayımının sağlandığı kabul edilmektedir.

61 ui hata teriminin değişen varyanslı olması
kesikli bir Y değişkeni varyansından hareketle Y yerine u alınarak Yi ui İhtimal=P(ui) -b1-b2X (1-Pi) 1 1-b1-b2X Pi u’nun varyansı farklıdır. u’nun varyansı Y’nin X için şartlı beklenen değerine bağlıdır ve sonuçta u’nun varyansı X’in değerine bağlı olacak ve eşit olmayacaktır.

62 ui hata teriminin değişen varyanslı olması
Var(ui) = Pi(1-Pi) DOM’nin EKKY ile tahmininde ortaya çıkan farklı varyans problemine aşağıdaki dönüşümlü modeli tahmin ederek çözüm getirmek mümkündür: ler bilinmediğinden bunun yerine örnek tahmini değerleri hesaplanarak ifadesinde yerine konarak ler kullanılır.

63 0  E(Yi |Xi)  1 varsayımının yerine gelmeyişi
DOM’de Y’nin şartlı olasılığını gösteren E(Y|X) nın 0 ila 1 arasında bulunması şarttır. Y; 0 ve 1 değerini almaktadır.Bu şart anakütle için geçerlidir. Anakütlenin tahmincisi için geçerli olmayabilir. Tahmini şartlı olasılıklar 0 ile 1 olmayabilir: 63

64 0  E(Yi |Xi)  1 0 ile 1 arasında mıdır? DOM”, EKKY ile elde edildikten sonra Bunlardan bir kısmı 0 dan küçük, negatif değerli ise, bunlar için 0 değerini alır. 1’den büyük değerli ise bunlar için nin 1’e eşit olduğu kabul edilir. Dönüştürmeden sonra EKKY tekrar uygulanır ve farklı varyansın kalktığı görülebilir. eşit varyanslıdır. Bu yöntem TEKKY’dir.

65 DOM’de Farklı Varyansı Önleme
Dependent Variable: Included observations: 30 Variable Coefficient Std. Error t-Statistic Prob. R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

66 DOM’e Alternatif Model Arama
DOM ile ilgili sayılan sorunların hepsi bir şekilde aşılabilir Ancak, DOM, Pi=E(Y=1|X) olasılığının X’le doğrusal olarak arttığını varsayar. Yani X’deki marjinal veya küçük bir artış hep sabittir. Gerçek hayatta ise bu beklenen bir durum değildir. DOM ile ilgili sorunlar şu iki özellik sayesinde aşılabilir: 1.Xi arttıkça Pi=E(Y=1|X)’de artar ancak 0 ile 1 aralığının dışına çıkmaması gerekmektedir. 2.Pi ile Xi arasındaki ilişkinin doğrusal olmaması gerekmektedir.

67 DOM’e Alternatif Model Arama
Yukarıdaki iki özelliği taşıyan modelin şekli aşağıda verilmiştir: P 1 KDF X - + Yukarıdaki eğri kümülatif dağılım fonksiyonuna benzemektedir. Bu fonksiyon kukla bağımlı değişkenli regresyon modellerinde kullanılabilir.

68 Logit Model Logistik Dağılım Fonksiyonu
kümülatif lojistik dağılım fonksiyonudur. Bahis yada olabilirlik oranı Bu orana ev sahibi olma lehine fark oranı denir. Lojistik modelin her iki tarafının doğal log. alındığında Li fark oranı logaritması olup hem X, hem parametrelere göre doğrusaldır.Z değişkeni dan a değişirken, P 0 ile 1 arasında değişir.

69 Logit Model Logit modelde olasılık iken. DOM’de şeklindedir.

70 Logit Model Zi, - ile + arasında değerler alırken Pi’nin aldığı değerler ise 0 ile 1 arasında değişmektedir. Zi ile Pi arasındaki ilişki doğrusal değildir.

71 Logit Modelin Özellikleri
1. Pi, 0’dan 1’e kadar değer aldığında, Logitte -ile + arasında değer alır. Pi=1 = + Pi=0 = - 2. Logit, X’e göre doğrusal iken olasılıklara göre değildir. 3. Logit modelin b2 katsayısı şu şekilde yorumlanır: Bağımsız değişkendeki bir birimlik değişme karşısında logitteki değişmeyi gösterir. 4. Logit model tahmin edildikten sonra, X bağımsız değişkeninin belirli bir değeri için logitin gerçekleşme olasılığı hesaplanabilir.

72 Logit Modelin EKKY İle Tahmini
1.Adım: İhtimalleri hesaplanır. 2.Adım: fark oranı logaritmaları hesaplanır. 3.Adım: Orijinal lojistik modeli tahminlenir. Farklı varyans durumu söz konusu ise; orijinal lojistik modelin her iki tarafı da ile çarpılarak dönüşümlü lojistik model elde edilir.

73 Logit Modelin EKKY İle Tahmini
Farklı varyans durumu söz konusu ise; orijinal lojistik modelin her iki tarafı da ile çarpılarak dönüşümlü lojistik model elde edilir. Dönüşümlü veya Tartılı EKK Lojistik Modeli

74 Logistik Model Uygulaması
300 aileden oluşan küçük bir kasabada ailelerin, yıllık gelirleri (Xi) ve ev sahibi olanların sayısı (ni) aşağıdaki tabloda gösterilmiştir. X Milyon TL) Aile Sayısı= Ni Ev Sahibi Olan Aile Sayısı=ni Nispi Frekanslar Pi=ni/Ni 12 20 5 0.25 16 25 6 0.24 35 10 0.28 26 45 15 0.33 30 50 0.50 40 34 18 0.53 0.66 60 0.61 70 0.75 80 0.67 Ni = 300 ni = 140

75 Logistik Model Uygulaması
Xi 1 12 16 20 26 30 40 50 60 70 80 Ni 2 20 25 35 45 50 34 30 26 15 ni 3 5 6 10 15 25 18 20 16 Pi 4=3/2 0.25 0.24 0.28 0.33 0.50 0.53 0.66 0.61 0.75 0.67 1-Pi 5=1-4 0.75 0.76 0.72 0.67 0.50 0.47 0.34 0.39 0.25 0.33 Pi /1- Pi 6=4/5 0.33 0.31 0.39 0.49 1.00 1.13 1.94 1.56 3.00 2.03 Li 7=ln(6) 0.0000 0.1222 0.6626 0.4446 1.0986 0.7080

76 Logistik Model Uygulaması
Dependent Variable: L Method: Least Squares Included observations: 10 Variable Coefficient Std. Error t-Statistic Prob. C X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

77 Logistik Model Uygulaması
v=N.P.(1-P) 8=2.4.5 3.75 4.56 7.05 9.95 12.50 8.47 6.73 6.18 3.31 vi 9= 8 1.9365 2.1354 2.6552 3.1543 3.5355 2.9103 2.5942 2.4859 1.8193 L* 10=7.9 0.0000 0.3556 1.7189 1.1052 2.1274 1.2880 X* 11=1.9

78 Logistik Model Uygulaması
Li*= vi Xi*, s= s(bi): (0.2315) ( ) , R2= 0.80 t= ( ) (6.0424) , d= 1.649, F= 36.95 Gelir bir birim arttığında, ev sahibi olma lehine fark oranının logaritması artmaktadır. Bu fark oranına göre belli bir gelir seviyesinde ev sahibi olma olasılığı hesaplanabilir: X=40 iken değerleri yukarıdaki denklemde yerine konduğunda L*= bulunur. olabilirlik oranı

79 40 birim gelirli bir ailenin ev sahibi olma olasılığı %47.43’dür.
Lojistik modelden, belli bir gelir seviyesinde gelirdeki bir birimlik artışın ev sahibi olma olasılığını ne ölçüde arttıracağı tahmin edilebilir: formülünden yararlanılır. X=40 iken gelir 1 birim arttığında ev sahibi olma olasılığı [ ( )0.4743]= (%0.8)

80 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p m L m This sequence introduces the principle of maximum likelihood estimation and illustrates it with some simple examples. 1

81 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p m L m Suppose that you have a normally-distributed random variable X with unknown population mean m and standard deviation s, and that you have a sample of two observations, 4 and 6. For the time being, we will assume that s is equal to 1. 2

82 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p 0.3521 m p(4) p(6) 0.0175 m L m Suppose initially you consider the hypothesis m = Under this hypothesis the probability density at 4 would be and that at 6 would be 3

83 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p 0.3521 m p(4) p(6) L 0.0175 m L m The joint probability density, shown in the bottom chart, is the product of these, 4

84 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p 0.3989 m p(4) p(6) L 0.0540 m L m Next consider the hypothesis m = Under this hypothesis the probability densities associated with the two observations are and , and the joint probability density is 5

85 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p 0.3521 m p(4) p(6) L 0.1295 m L m Under the hypothesis m = 4.5, the probability densities are and , and the joint probability density is 6

86 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p 0.2420 0.2420 m p(4) p(6) L m L m Under the hypothesis m = 5.0, the probability densities are both and the joint probability density is 7

87 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p 0.3521 m p(4) p(6) L 0.1295 m L m Under the hypothesis m = 5.5, the probability densities are and and the joint probability density is 8

88 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p 0.3521 m p(4) p(6) L 0.1295 m L m The complete joint density function for all values of m has now been plotted in the lower diagram. We see that it peaks at m = 5. 9

89 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Now we will look at the mathematics of the example. If X is normally distributed with mean m and standard deviation s, its density function is as shown. 10

90 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
For the time being, we are assuming s is equal to 1, so the density function simplifies to the second expression. 11

91 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Hence we obtain the probability densities for the observations where X = 4 and X = 6. 12

92 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
The joint probability density for the two observations in the sample is just the product of their individual densities. 13

93 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
In maximum likelihood estimation we choose as our estimate of m the value that gives us the greatest joint density for the observations in our sample. This value is associated with the greatest probability, or maximum likelihood, of obtaining the observations in the sample. 14

94 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p 0.3521 m p(4) p(6) L 0.1295 m L m In the graphical treatment we saw that this occurs when m is equal to 5. We will prove this must be the case mathematically. 15

95 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
To do this, we treat the sample values X = 4 and X = 6 as given and we use the calculus to determine the value of m that maximizes the expression. 16

96 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
When it is regarded in this way, the expression is called the likelihood function for m, given the sample observations 4 and 6. This is the meaning of L(m | 4,6). 17

97 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
To maximize the expression, we could differentiate with respect to m and set the result equal to 0. This would be a little laborious. Fortunately, we can simplify the problem with a trick. 18

98 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
log L is a monotonically increasing function of L (meaning that log L increases if L increases and decreases if L decreases). 19

99 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
It follows that the value of m which maximizes log L is the same as the one that maximizes L. As it so happens, it is easier to maximize log L with respect to m than it is to maximize L. 20

100 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
The logarithm of the product of the density functions can be decomposed as the sum of their logarithms. 21

101 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Using the product rule a second time, we can decompose each term as shown. 22

102 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Now one of the basic rules for manipulating logarithms allows us to rewrite the second term as shown. 23

103 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
log e is equal to 1, another basic logarithm result. (Remember, as always, we are using natural logarithms, that is, logarithms to base e.) 24

104 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Hence the second term reduces to a simple quadratic in X. And so does the fourth. 25

105 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
We will now choose m so as to maximize this expression. 26

106 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Quadratic terms of the type in the expression can be expanded as shown. 27

107 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Thus we obtain the differential of the quadratic term. 28

108 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Applying this result, we obtain the differential of log L with respect to m. (The first term in the expression for log L disappears completely since it is not a function of m.) 29

109 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Thus from the first order condition we confirm that 5 is the value of m that maximizes the log-likelihood function, and hence the likelihood function. 30

110 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Note that a caret mark has been placed over m, because we are now talking about an estimate of m, not its true value. 31

111 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Note also that the second differential of log L with respect to m is -2. Since this is negative, we have found a maximum, not a minimum. 32

112 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
We will generalize this result to a sample of n observations X1,...,Xn. The probability density for Xi is given by the first line. 33

113 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
The joint density function for a sample of n observations is the product of their individual densities. 34

114 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Now treating the sample values as fixed, we can re-interpret the joint density function as the likelihood function for m, given this sample. We will find the value of m that maximizes it. 35

115 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
We will do this indirectly, as before, by maximizing log L with respect to m. The logarithm decomposes as shown. 36

116 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
We differentiate log L with respect to m. 37

117 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
The first order condition for a minimum is that the differential be equal to zero. 38

118 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Thus we have demonstrated that the maximum likelihood estimator of m is the sample mean. The second differential, -n, is negative, confirming that we have maximized log L. 39

119 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
So far we have assumed that s, the standard deviation of the distribution of X, is equal to 1. We will now relax this assumption and find the maximum likelihood estimator of it. 40

120 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p m L s We will illustrate the process graphically with the two-observation example, keeping m fixed at 5. We will start with s equal to 2. 41

121 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p s p(4) p(6) L m L s With s equal to 2, the probability density is for both x = 4 and x = 6, and the joint density is 42

122 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p s p(4) p(6) L m L s Now try s equal to 1. The individual densities are and so the joint density, , has increased. 43

123 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p s p(4) p(6) L m L s Now try putting s equal to The individual densities have fallen and the joint density is only 44

124 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
p s p(4) p(6) L m L s The joint density has now been plotted as a function of s in the lower diagram. You can see that in this example it is greatest for s equal to 1. 45

125 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
We will now look at this mathematically, starting with the probability density function for x given m and s. 46

126 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
The joint density function for the sample of n observations is given by the second line. 47

127 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
As before, we can re-interpret this function as the likelihood function for m and s, given the sample of observations. 48

128 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
We will find the values of m and s that maximize this function. We will do this indirectly by maximizing log L. 49

129 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
We can decompose the logarithm as shown. To maximize it, we will set the partial derivatives with respect to m and s equal to zero. 50

130 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
When differentiating with respect to m, the first two terms disappear. We have already seen how to differentiate the other terms. 51

131 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Setting the first differential equal to 0, the maximum likelihood estimate of m is the sample mean, as before. 52

132 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Next, we take the partial differential of the log-likelihood function with respect to s. 53

133 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Before doing so, it is convenient to rewrite the equation. 54

134 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
The derivative of log s with respect to s is 1/s. The derivative of s--2 is -2s--3. 55

135 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Setting the first derivative of log L to zero gives us a condition that must be satisfied by the maximum likelihood estimator. 56

136 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
We have already demonstrated that the maximum likelihood estimator of m is the sample mean. 57

137 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Hence the maximum likelihood estimator of the population variance is the sample variance. 58

138 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
Note that it is biased. The unbiased estimator is obtained by dividing by (n - 1), not n. 59

139 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION
However it can be shown that the maximum likelihood estimator is asymptotically efficient, in the sense of having a smaller mean square error than the unbiased estimator in large samples. 60

140 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X We will now apply the maximum likelihood principle to regression analysis, using the simple linear model Y = b1 + b 2X + u. 1

141 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X The black marker shows the value that Y would have if X were equal to Xi and if there were no disturbance term. 2

142 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X However we will assume that there is a disturbance term in the model and that it has a normal distribution as shown. 3

143 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X Relative to the black marker, the curve represents the ex ante distribution for u, that is, its potential distribution before the observation is generated. Ex post, of course, it is fixed at some specific value. 4

144 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X Relative to the horizontal axis, the curve also represents the ex ante distribution for Y for that observation, that is, conditional on X = Xi. 5

145 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X Potential values of Y close to b1 + b2Xi will have relatively large densities ... 6

146 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X ... while potential values of Y relatively far from b1 + b2Xi will have small ones. 7

147 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X The mean value of the distribution of Yi is b1 + b2Xi. Its standard deviation is s, the standard deviation of the disturbance term. 8

148 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Y Xi b1 b1 + b2Xi Y = b1 + b2X Hence the density function for the ex ante distribution of Yi is as shown. 9

149 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
The joint density function for the observations on Y is the product of their individual densities. 10

150 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Now , taking b1, b2 and s as our choice variables, and taking the data on Y and X as given, we can re-interpret this function as the likelihood function for b1, b2, and s. 11

151 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
We will choose b1, b2, and s so as to maximize the likelihood, given the data on Y and X. As usual, it is easier to do this indirectly, maximizing the log-likelihood instead. 12

152 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
As usual, the first step is to decompose the expression as the sum of the logarithms of the factors. 13

153 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Then we split the logarithm of each factor into two components. The first component is the same in each case. 14

154 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Hence the log-likelihood simplifies as shown. 15

155 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
To maximize the log-likelihood, we need to minimize Z. But choosing estimators of b1 and b2 to minimize Z is exactly what we did when we derived the least squares regression coefficients. 16

156 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS
Thus, for this regression model, the maximum likelihood estimators are identical to the least squares estimators. The estimator of s will, however, be slightly different. 17

157 Copyright Christopher Dougherty 2000-2002
Copyright Christopher Dougherty This slideshow may be freely copied for personal use.

158 Probit Model P R O B İ T (NORMAL) MODEL
Bağımlı kukla değişkenli modellerden kümülatif lojistik fonksiyonundan farklı olarak, normal kümülatif dağılım fonksiyonunu kullanan PROBİT(NORMAL) vardır. P R O B İ T (NORMAL) MODEL F(z)= Probit modeli şu şekilde tanımlayabiliriz: Herhangi bir i hanesinin ev sahibi olma veya olmama kararının gözlenemeyen bir fayda indeksi Ii’ye bağlı olduğunu varsayalım.

159 Ii, bağımsız değişkenlere bağlıdır. Örneğin Xi (gelir)değişkeni.
Y=1 hane ev sahibi Y=0 hane ev sahibi değil. (1) Ii= b1 + b2 Xi Her hane için Ii’nın belli bir değerinden itibaren ev sahibi olma durumu söz konusudur.Ii değeri, Ii* değerini aştığı zaman hane, ev sahibi olacak aksi durumda olmayacaktır. Ii*  Ii  ifadesi faydanın belli bir eşik değerinden sonra söz konusu olabileceğini gösterir. Ii* başlangıç değeri de Ii gibi gözlenemez. Ancak, aynı ortalama ve varyanslı normal dağıldığı varsayılarak Ii değerleri yukarıdaki regresyon denkleminden tahmin edilir. Tahminciler bulunur. Normal dağılım varsayımıyla Ii* ın Ii den küçük veya eşit olma olasılığı aşağıdaki standartlaştırılmış normal KDF ile hesaplanabilir:

160 Pi=Pr(Y=1)=Pr(Ii* Ii)=F(Ii)
(2) =Standartlaştırılmış Normal KDF =standartlaştırılmış normal değişken Pi=Bir ev sahibi olma olasılığı.

161 Probit Model Pi=F(Ii) 1 Pi Ii* <=Ii verilmişken ev sahibi olma olasılığı Pi ordinatta bulunur Ii= b1 + b2 Xi - + Pi=F(Ii) 1 Pi Pi verilmişken, absiste Ii bulunur. - Ii=F-1(Pi ) +

162 Ii’yı bulabilmek için 2 no’lu ifadenin tersi alınmalıdır.
Ii = (Ii)= (Pi)=b1+b2Xi =Probit model : normal kümülatif dağılım fonksiyonunun tersi.

163 Probit Modelin Tahmin Aşamaları
Pi= ni/Ni hesaplanır. Ii = (Pi)= normal eşdeğer sapma bulunur. Ii = b1 + b2 Xi + ui EKK ile tahmin edilir. İstenirse, Ii yerine, (Ii + 5)=probit değerleri alınarak, EKKY ile (13.19) tahmin edilir. modelinin hata terimi ui farklı varyanslıdır. Bu sebepten dönüşümlü değerler alınarak TEKKY uygulanabilir:=

164 fi= (Pi) ifadesine eşit standart normal yoğunluk fonksiyonudur.
Büyük örnekler için bi'lerin güven aralıkları ve hipotez testleri uygulanarak, anakütlede durumun geçerliliği araştırılabilir. Belirlilik katsayısı R2, modelin fonksiyonel biçiminin iyi seçilip seçilmediği konusunda bize fikir vermez.

165 Probit Model Uygulaması
Pi 0.25 0.24 0.28 0.33 0.50 0.53 0.66 0.61 0.75 0.67 Ii=F-1(Pi) 0.0000 0.0752 0.4124 0.2793 0.6745 0.4399 Probitler=Zi=(Ii+5) 4.3255 4.2937 4.4172 4.5601 5.0000 5.0752 5.4124 5.2793 5.6745 5.4399 Xi 12 16 20 26 30 40 50 60 70 80

166 Probit Model Uygulaması
Ii= Xi , r2= r= s(bi) (0.0028) s= 0.2 d= 1.59 t= (7.094) Zi= Xi , r2= r= s(bi) (0.0028) s= 0.2 d= t= (7.071)

167 Wooldridge Example 17.1 inlf kidslt6 kidsge6 age educ exper nwifeinc expersq Obs: 753 1. inlf =1 işgücüne katılıyorsa 2. kidslt < yaşında küçük çocuk sayısı 3. kidsge yaşları arasındaki çocuk sayısı 4. age kadının yaşı 5. educ eğitim yılı 6. exper deneyim 7. nwifeinc (ailegeliri – ücret*saat)/1000 8. expersq deneyimkare

168 Wooldridge Example 17.1-DİM
Dependent Variable: INLF Method: Least Squares Included observations: 753 Variable Coefficient Std. Error t-Statistic Prob. NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE C R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

169 Wooldridge Example 17.1-LOGİT
Dependent Variable: INLF Method: ML - Binary Logit Included observations: 753 Variable Coefficient Std. Error z-Statistic Prob. NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE C Mean dependent var S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood Hannan-Quinn criter Restr. log likelihood Avg. log likelihood LR statistic (7 df) McFadden R-squared Probability(LR stat) Obs with Dep= Total obs 753 Obs with Dep=1 428

170 Wooldridge Example 17.1-PROBİT
Dependent Variable: INLF Method: ML - Binary Probit Included observations: 753 Variable Coefficient Std. Error z-Statistic Prob. NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE C Mean dependent var S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood Hannan-Quinn criter Restr. log likelihood Avg. log likelihood LR statistic (7 df) McFadden R-squared Probability(LR stat) Obs with Dep= Total obs 753 Obs with Dep=1 428

171 UYGULAMA: Aşağıda bir okulun eğitimi ile ilgili verileri kullanarak Probit denklemini çıkartınız.
GRADE: Yeni bir tekniğin uygulanması sonucu öğrencilerin başarısı PSI: Yeni Bir Ekonomi Öğretme Yöntemi GPA: Ortalama Derece TUCE: Sınav Öncesi Konu ile ilgili Bilgi SKoru

172 Dependent Variable: GRADE
Method: ML - Binary Probit Included observations: 32 Convergence achieved after 5 iterations Variable Coefficient Std. Error z-Statistic Prob. C GPA PSI TUCE

173 Dependent Variable: GRADE
Method: ML - Binary Logit Sample: 1 32 Variable Coefficient Std. Error z-Statistic Prob. C GPA PSI TUCE

174 Kadının İşgücüne Katılımı Modeli:
Di Mi Si 1 16 10 14 9 12 13 7 11 8 15 Kadının İşgücüne Katılımı Modeli: Di= 1 i.Kadının bir işi varsa ya da iş arıyorsa 0 Diğer Durumlarda Mi= 1 i. Kadın evliyse 0 diğer durumlarda Si = i.kadının yıl olarak aldığı eğitim 174

175 Logit Model Tahminleri
Dependent Variable: DI Method: ML - Binary Logit Included observations: 30 Convergence achieved after 5 iterations Covariance matrix computed using second derivatives Variable Coefficient Std. Error z-Statistic Prob. C MI SI Mean dependent var S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood Hannan-Quinn criter Restr. log likelihood Avg. log likelihood LR statistic (2 df) McFadden R-squared Probability(LR stat) Obs with Dep= Total obs 30 Obs with Dep=1 18


"Mehmet Vedat PAZARLIOĞLU" indir ppt

Benzer bir sunumlar


Google Reklamları