Sunum yükleniyor. Lütfen bekleyiniz

Sunum yükleniyor. Lütfen bekleyiniz

Mehmet Vedat PAZARLIOĞLU KUKLA DEĞİŞKENLER. Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi.

Benzer bir sunumlar


... konulu sunumlar: "Mehmet Vedat PAZARLIOĞLU KUKLA DEĞİŞKENLER. Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi."— Sunum transkripti:

1 Mehmet Vedat PAZARLIOĞLU KUKLA DEĞİŞKENLER

2 Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi karışıklıklar (=darbeler), iktisat politikasındaki değişiklikler, depremler, yangın ve benzeri nitel değişkenlerin ekonometrik bir modelde ifade edilme şeklidir.

3 Kukla Değişkenlerin Modelde Kullanımı Kukla Değişken/lerin Modelde bağımsız değişken olarak yer alması Kukla Değişkenin Modelde Bağımlı Değişken olarak yer alması

4 Bağımsız Kukla Değişkenler Bir kukla değişkenli modeller (Varyans Analiz Modelleri) Kukla değişkenlerin ve Sayısal değişkenlerin Birlikte yer aldığı Modeller (Kovaryans Analizi Modeller) Kukla değişkenlerin karşılıklı olarak birbirini etkilemeleri Mevsim dalgalanmalarının ölçülmesinde kukla değişkenler Parçalı Doğrusal Regresyon

5 Bir kukla değişkenli modeller Y i =  +  D i +u i Y i = Öğretim Üyelerinin Yıllık Maaşları D i = 1 Öğretim Üyesi Erkekse = 0 Diğer Durumlar (yani Kadın Öğretim Üyesi) Varyans Analiz Modelleri (ANOVA) Kadın Öğretim Üyelerinin Ortalama Maaşları: E( Y i |D i = 0 ) =  Erkek Öğretim Üyelerinin Ortalama Maaşları : E ( Y i |D i = 1) =  + 

6 Bir kukla değişkenli modeller MaaşCinsiyet 221 190 180 21.71 18.50 211 20.51 170 17.50 21.21 Y i =  +  D i (0.32)(0.44) t(57.74)(7.44),R 2 =0.8737

7 Bir kukla değişkenli modeller Y i =  +  D i (0.32)(0.44) t(57.74)(7.44),R 2 =0.8737 Kadın Öğretim Üyelerinin Ortalama Maaşları: Erkek Öğretim Üyelerinin Ortalama Maaşları : E( Y i |D i = 0 ) =  E ( Y i |D i = 1) =  +  =  Erkek ve Kadın Öğretim Üyelerinin Ortalama Maaş Farkı : 

8 Bir kukla değişkenli modeller Y i =  +  D i (0.32)(0.44) t(57.74)(7.44),R 2 =0.8737 3.28 18.00 21.28 0 1

9 Kukla değişken ve Sayısal Değişkenli Model Y i =   +   D i +  X i + u i Y i = Öğretim Üyelerinin Yıllık Maaşları X i = Öğretim Üyesinin Yıl olarak Tecrübesi D i = 1 Öğretim Üyesi Erkekse = 0 Diğer Durumlar (yani Kadın Öğretim Üyesi) Kadın Öğretim Üyelerinin Ortalama Maaşları : E( Y i |X i,D i = 0 ) =    X i Erkek Öğretim Üyelerinin Ortalama Maaşları : E ( Y i |X i,D i = 1) = (   +    X i

10 Kukla değişken ve Sayısal Değişkenli Model MaaşCinsiyetTecrübe 22116 19012 18012 21.7115 18.5010 21111 20.5113 1708 17.509 21.2114 Y i =  +  D i + 0.289 X i s(b)(0.95)(0.44)(0.09) (t)(15.843) (5.088)(3.211) p(0.000)(0.002)(0.020) R 2 =0.949

11 Kukla değişken ve Sayısal Değişkenli Model Kadın Öğretim Üyelerinin Maaş Fonksiyonu: Erkek Öğretim Üyelerinin Maaş Fonksiyonu: E( Y i |D i = 0 ) =  + 0.289 X i Erkek ve Kadın Öğretim Üyelerinin Ortalama Maaş Farkı :  Y i =  +  D i + 0.289 X i (t)(15.843) (5.088)(3.211) p(0.000)(0.002)(0.020) E( Y i |D i = 1 ) =  +  + 0.289 X i =  + 0.289 X i

12 Kukla değişken ve Sayısal Değişkenli Model E( Y i |D i = 0 ) =  + 0.289 X i E( Y i |D i = 1 ) =  +  + 0.289 X i =  + 0.289 X i   

13 Birden Fazla Kukla Değişkenli Modeller Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 X i + u i Y i = Sigara Tüketimi D 2 = 1 Sigara Tüketen ErkekD 3 = 1 Şehirde oturanların sigara tüketimi = 0 Sigara Tüketen Kadın = 0 Kırsalda oturanların sigara tüketimi X i = Gelir Kırdaki Kadınların Sigara Tüketimi: E( Y i |D 2 =0,Y i |D 3 =0) = b 1 + b 4 X i Kırdaki Erkeklerin Sigara Tüketimi : E (Y i |D 2 =1,Y i |D 3 =0) = b 1 + b 2 D 2 + b 4 X i Kentteki Kadınların Sigara Tüketimi: E( Y i |D 2 =0,Y i |D 3 =1 ) = b 1 + b 3 D 3 + b 4 X i Kentteki Erkeklerin Sigara Tüketimi: E( Y i |D 2 =1,Y i |D 3 =1 ) = b 1 + b 2 D 2 + b 3 D 3 + b 4 X i

14 Birden Fazla Kukla Değişkenli Modeller Yıllık Sigara Tüketimi Y i (100 TL) Cinsiyet(D 3 ) Şehir(D 3 ) Yıllık Gelir (X i )(100 TL) 2511400 2000260 1900270 2411360 2001240 2210310 2111280 1800200 1900260 2211320

15 Birden Fazla Kukla Değişkenli Modeller Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 X i + u i Y i = Sigara Tüketimi D 2 = 1 Sigara Tüketen ErkekD 3 = 1 Şehirde oturanların sigara tüketimi = 0 Sigara Tüketen Kadın = 0 Kırsalda oturanların sigara tüketimi X i = Gelir Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C11.878631.3549778.7666630.0001 D20.6262080.6408240.9771930.3662 D30.6713210.4679921.4344730.2014 X0.0292160.005445.3702810.0017 R-squared0.955074F-statistic42.51767 Adjusted R-squared0.932611Prob(F-statistic)0.000195 S.E. of regression0.586884Akaike info criterion2.061194 Sum squared resid2.066595Schwarz criterion2.182228 Durbin-Watson stat2.222562Hannan-Quinn criter.1.92842

16 1.Sabit Terimlerin Farklı Eğimlerin Eşit olması Y i =  1 +  2 D i +  X i + u i Y i = Sigara Tüketimi D i = 1 Sigara Tüketen Erkek = 0 X i = Gelir E( Y i |X i,D i = 0 ) =    X i E ( Y i |X i,D i = 1) = (   +    X i

17 Kukla değişken ve Sayısal Değişkenli Model       Y i =  1 +  2 D i +  2 X i + u i

18 2. Sabit Terimlerin Eşit, Eğimlerin Farklı Olması Hali Y i =  1 +  1 D i X i +  2 X i + u i Y i = Sigara Tüketimi D i = 1 Sigara Tüketen Erkek = 0 X i = Gelir E( Y i |X i,D i = 0 ) =    2 X i E ( Y i |X i,D i = 1) =   + (    2  X i

19 19 ) )      11 YiYi XiXi E( Y i |X i,D i = 0 ) =    2 X i E ( Y i |X i,D i = 1) =   + (    2  X i 2. Sabit Terimlerin Eşit, Eğimlerin Farklı Olması Hali Y i =  1 +  1 D i X i +  2 X i + u i

20 3. Sabit Terim ve Eğimin İki Sınıf İçin Farklı Olması Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i Y i = Sigara Tüketimi D i = 1 Sigara Tüketen Erkek = 0 X i = Gelir E( Y i |X i,D i = 0 ) =    2 X i E ( Y i |X i,D i = 1) = (   +   ) + (    2  X i

21 21 YiYi XiXi )  )          E( Y i |X i,D i = 0 ) =    2 X i E ( Y i |X i,D i = 1) = (   +   ) + (    2  X i 3. Sabit Terim ve Eğimin İki Sınıf İçin Farklı Olması Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i

22 22  2 ve  1 ’ün t istatistikleri anlamsızsa iki sınıf sigara tüketim fonksiyonları aynı 2.  2 ve  1 ’ün t istatistikleri anlamlıysa iki sınıf sigara tüketim fonksiyonları farklı (3.durum)  2 ve  1 ’ün t istatistiklerinden  2 anlamsız ve  1 anlamlıysa sabit terim aynı eğim farklıdır. (2. durum) 4.  2 ve  1 ’ün t istatistiklerinden  2 anlamlı ve  1 anlamsızsa sabit terim farklı eğim aynıdır. (1. durum) Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i Modelin t İstatistiklerinin Değerlendirilmesi

23 23 Yıllık Sigara Tüketimi Cinsiyet (D i ) (Erkek = 1, Kadın = 0) Yıllık Gelir (X i ) 251400 200260 190270 241360 200240 221310 211280 180200 190260 221320 İki Sınıf Modellerinin Farklılığının Kukla Değişken Yöntemi İle Testi Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i

24 24 İki Sınıf Modellerinin Farklılığının Kukla Değişken Yöntemi İle Testi Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C14.942312.5983835.7506190.0012 D2-3.7863443.35085-1.1299650.3016 D2*X0.0175550.0122451.4336240.2017 X0.0173080.0105081.647020.1507 R-squared0.95506F-statistic42.50422 Adjusted R-squared0.932591Prob(F-statistic)0.000195 S.E. of regression0.586972Akaike info criterion2.061496 Sum squared resid2.067219Schwarz criterion2.18253 Durbin-Watson stat1.943502Hannan-Quinn criter.1.928722 Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C10.31091.1234939.1775350.0000 X0.0368590.0038049.6890430.0000 R-squared0.921474F-statistic93.87755 Adjusted R-squared0.911659Prob(F-statistic)0.000011 S.E. of regression0.671954Akaike info criterion2.219603 Sum squared resid3.612179Schwarz criterion2.28012 Durbin-Watson stat2.034514Hannan-Quinn criter.2.153216

25 25 2. CHOW testi ile tüketim fonksiyonlarının farklılığının araştırılması Üç grup tüketim fonksiyonu tahmin edilir: H 0 : Erkek ve kadınlar için tüketim fonk. aynıdır. H 1 : Erkek ve kadınlar için tüketim fonk. farklıdır. 1.Erkek-kadın tüm tüketiciler için tüketim fonksiyonu: HKT=3.162 2.Erkekler için tüketim fonksiyonu: HKT=0.2018 3.Kadınlar için tüketim fonksiyonu: HKT=1.865 F test = 2.243 F tab = 5.14 (  =0.05 f 1 =2 f 2 =6 sd. lerinde) H 0 kabul

26 Birden Fazla Kukla Değişkenli Modeller Yıllık Sigara Tüketimi Y i (100 TL) Cinsiyet(D 3 ) Şehir(D 3 ) Yıllık Gelir (X i )(100 TL) 2511400 2000260 1900270 2411360 2001240 2210310 2111280 1800200 1900260 2211320

27 Birden Fazla Kukla Değişkenli Modeller Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 X i + u i Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C11.878631.3549778.7666630.0001 D20.6262080.6408240.9771930.3662 D30.6713210.4679921.4344730.2014 X0.0292160.005445.3702810.0017 R-squared0.955074F-statistic42.51767 Adjusted R-squared0.932611Prob(F-statistic)0.000195 S.E. of regression0.586884Akaike info criterion2.061194 Sum squared resid2.066595Schwarz criterion2.182228 Durbin-Watson stat2.222562Hannan-Quinn criter.1.92842 Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C11.050451.05380210.486270.0000 D30.8270270.4386111.8855590.1013 X0.0328830.0039268.3752490.0001 R-squared0.947924F-statistic63.70948 Adjusted R-squared0.933045Prob(F-statistic)0.000032 S.E. of regression0.58499Akaike info criterion2.008882 Sum squared resid2.395495Schwarz criterion2.099658 Durbin-Watson stat2.339918Hannan-Quinn criter.1.909302

28 28 BİR MODELDE KUKLA DEĞİŞKENLERİN KARŞILIKLI OLARAK BİRBİRİNİ ETKİLEMELERİ PROBLEMİ Erkeğin Tüketim Farkı Şehirde Oturanların Tüketim Farkı Şehirde Oturan bir Erkeğin Tüketim Farkı

29 Birden Fazla Kukla Değişkenli Modeller Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 D 2 D 3 + b 5 X i + u i Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C11.401811.3439078.4840760.0004 D21.0812640.7076091.5280530.187 D31.2302480.6261841.9646770.1066 D2*D3-1.1512420.905929-1.2707860.2597 X0.03070.0053115.7801730.0022 R-squared0.966042F-statistic35.55997 Adjusted R-squared0.938875Prob(F-statistic)0.000726 S.E. of regression0.558941Akaike info criterion1.981308 Sum squared resid1.562077Schwarz criterion2.132601 Durbin-Watson stat2.778543Hannan-Quinn criter.1.815341 Y i = b 1 + b 5 X i Y i = b 1 + b 2 D 2 + b 5 X i Y i = b 1 + b 3 D 3 + b 5 X i Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 D 2 D 3 + b 5 X i

30 30 MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDE N FAYDALANMA Üçer Aylar Karlar (Milyon Dolar) S atışlar (Milyon Dolar) 1965-I10503114862 II12092123968 III10834121454 IV12201131917 1966-I12245129911 II14001140976 III12213137828 IV12820145465 D2D2 0 1 0 0 0 1 0 0 D3D3 0 0 1 0 0 0 1 0 D4D4 0 0 0 1 0 0 0 1

31 31 MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN FAYDALANMA Dependent Variable: Kar Variable Coefficient Std. Error t-Statistic Prob. C 6688.363 1711.3663.908200.0009 D 2 1322.892 638.4745 2.0719570.0521 D 3 -217.8054 632.2552 -0.3444900.7343 D 4 183.8564 654.2925 0.2810000.7817 Satış 0.038246 0.011481 3.3312810.0035 R 2 =0.525494 İstatistiki olarak anlamsız

32 32 MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN FAYDALANMA Dependent Variable: Kar Sample: 1965:1 1970:4 VariableCoefficientStd. Error t-Statistic Prob. C 6515.5811623.083 4.0143230.0006 D 2 1331.352493.0214 2.7003950.0134 Satış 0.0393100.010575 3.7173150.0013 R 2 = 0.515460 Mevsim dalgalanmalarının etkisinde

33 33 Parçalı Doğrusal Regresyon X*X* Satış Komisyonları Y X Bir sigorta şirketi satış temsilcilerinin belli bir satış hacmini geçmesi durumunda çalışanlarına komisyon ödemektedir. Şirket içerisinde gerçekleştirilen satış komisyon ücretleri belli bir satış hacmi(X * ) eşik düzeyine kadar doğrusal artmakta ve bu eşik düzeyinden sonra ise daha dik bir oranla satışlarla doğrusal olarak arttığı varsayılmaktadır. Bu durumda I ve II olarak numaralandırılmış iki parçadan oluşan parçalı doğrusal regresyona ve eşik düzeyinde eğimin değiştiği komisyon fonksiyonuna sahip olmuş oluruz. I II

34 34 Parçalı Doğrusal Regresyon Satış Komisyonları Y X Satışlar X*X* E(Y i | D i =1,X i, X * ) =  1 -  2 X * +(  1 +  2 )X i Y i = Satış Komisyonları X i = Satış Miktarı X * = Satışlarda Prim Eşik Değeri D= 1 Eğer X i > X * = 0 Eğer X i < X * E(Y i | D i =0,X i, X * ) =  1 +  1 X i Y i =  1 +  1 X i +  2 (X i -X * )D i +u i

35 35 Parçalı Doğrusal Regresyon Satış Komisyonları Y X Satışlar 11 1-2X*1-2X* 1 1 1+21+2 11 X*X*

36 36 Örnek Total Cost($) TC Output( units) Q DiDi 25610000 41420000 63430000 77840000 100350000 183960001 208170001 242380001 273490001 2914100001 Dependent Variable: TC Included observations: 10 VariableCoefficientStd. Errort-StatisticProb. C-145.7167176.7341-0.8244960.4368 Q0.2791260.0460086.0668770.0005 (Q-5500)*DI0.0945000.0825521.1447270.2899 R 2 =0.973706 F-statistic=129.6078 [0.000003] İstatistiki olarak anlamsız Satışlardaki artışlar prim değerini arttırmamaktadır. Bir şirket satış temsilcilerinin belli bir satış hacmini geçmesi durumunda çalışanlarına prim ödemektedir. H 0 : Satışlardaki artışlar prim değerini arttırmamaktadır. H 1 : Satışlardaki artışlar prim değerini arttırmaktadır.

37 37 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI UYGULAMA: 1935-1954 yıllarına arasında General Motor, Westinghouse ve General Electric firmalarına ait yatırım (Y), firmanın değeri (X 2 ) ve sermaye stoğu (X 3 ) verilerine ait tablo aşağıda verilmiştir.

38 38 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI Firmaların yatırımları arasında fark olup olmadığını inceleyebilmek için de kukla değişkenlerden yararlanabiliriz. Firmaların ilk üç yılına ait veriler ile oluşturulan yeni tablo aşağıdaki gibidir. YıllarY X2X3DiDi Firma 1935 317.63078.52.81GM 1936 391.84661.752.61GM 1937 410.65387.1156.91GM 1935 12.93191.51.80WE 1936 25.90516.00.80WE 1937 35.05729.07.40WE 1935 33.11170.697.80GE 1936 45.02015.8104.40GE 1937 77.22803.3118.00GE General Motor(GM), Westinghouse(WE) ve General Electric (GE) yatırım (Y), firmanın değeri (X2 ) ve sermaye stoğu (X3)

39 39 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI GM yatırımlarının diğer firma yatırımlarından sabit terim kadar farklı olduğunu ifade etmektedir.

40 40 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI Dependent Variable: Y Method: Least Squares Included observations: 60 VariableCoefficientStd. Errort-StatisticProb. C-61.8075423.79039-2.5980040.0120 X20.0383110.0167522.2868840.0260 X30.3473030.03204810.836830.0000 DI278.591151.743385.3840910.0000 R-squared0.924866 Mean dependent var251.067 Adjusted R-squared0.920841 S.D. dependent var311.6501 S.E. of regression87.68352 Akaike info criterion11.84969 Sum squared resid430550.4 Schwarz criterion11.9893 Log likelihood-351.4906 F-statistic229.7778 Durbin-Watson stat0.502776 Prob(F-statistic)0.000000 İstatistiksel olarak anlamlı

41 41 ÖRNEKLER

42 42 DATA7-19 1960-1988 yılları arasında Türkiye’deki Sigara Tüketimi Q Yetişkinlerin sigara tüketim miktarı(kg), Range 1.86 - 2.723. Y GNP(1968) TL,Range 2560 - 5723. PTürkiye’deki sigara fiyatları Range 1.361 - 3.968. ED1Kayıtlı ortaokul ve lise mezunu nüfus oranı(12-17 yaş) Range 0.112 - 0.451. ED2Kayıtlı üniversite mezunu oranı (20-24) Range 0.026 - 0.095. D82= 1, 1982 ve sonrası D86= 1, 1986 ve sonrası

43 43 Dependent Variable: Q Sample: 1960 1988 Included observations: 29 VariableCoefficientStd. Error t-Statistic Prob. P-0.0972910.079389 -1.225493 0.2340 ED2-5.5472952.679248 -2.07046 0.0509 ED1-2.9941662.708828 -1.105336 0.2815 D86-0.2627000.090825 -2.89238 0.0087 D82-0.2887390.083649 -3.451774 0.0024 Y0.0007620.000190 4.009205 0.0006 C5.1139345 0.34132 0.101585 0.9200 Katsayılar istatistiksel olarak anlamsız

44 44 Dependent Variable: Q Method: Least Squares Sample: 1960 1988 Included observations: 29 VariableCoefficientStd. Errort-StatisticProb. ED2-6.4552592.724204-2.3695950.0266 D86-0.3518220.078985-4.4542970.0002 D82-0.2694290.084743-3.1793850.0042 Y0.0006720.0001703.9452280.0006 C58.1887833.266181.7491870.0936

45 45 DATA7-2 Belirli bir şirkette çalışan 49 kişinin istihdam durumu ve ücretleri WAGE = Aylık Ücret (Range 981 - 3833) EDUC = 8 yıllık eğitimden sonraki sahip olunan eğitim seviyesi(Range 1 - 11) EXPER =Şirkette çalışma süresi(Range 1 - 23) AGE = Yaş (25 - 64) GENDER = 1, Erkek ise; 0 kadın ise RACE = 1, beyaz ise; 0 diğerleri CLERICAL = 1 büro memuru ise, 0 diğerleri MAINT = 1 bakım işlerinde çalışıyor ise; 0 diğerleri CRAFTS =1,usta ise; 0 diğerleri Temel sınıf Profesyonel meslek grupları.

46 46 Dependent Variable: WAGE Method: Least Squares Included observations: 49 VariableCoefficientStd. Errort-StatisticProb. C1637.202263.67266.2092240.0000 EDUC49.3317827.996781.7620520.0855 EXPER27.295099.4888832.8765330.0064 GENDER473.6966152.48183.1065780.0034 RACE207.0888130.44911.5875060.1201 CLERICAL-946.7380174.6505-5.4207580.0000 MAINT-1053.424203.4297-5.1783200.0000 CRAFTS-708.8822176.0507-4.0265800.0002 R-squared0.737516 Mean dependent var1820.204 Adjusted R-squared0.692702 S.D. dependent var648.2687 S.E. of regression359.3643 Akaike info criterion14.75483 Sum squared resid5294850. Schwarz criterion15.06370 Log likelihood-353.4934 F-statistic16.45717 Durbin-Watson stat2.107977 Prob(F-statistic)0.000000

47 47 DATA 7-9 1985 yılında koleje giriş yapan öğrencilerin ilk yıl başarılarını göstermekte colgpa = 1986 sonbaharındaki ortalamaları (Range 0.85 - 3.97) hsgpa = Lise GPA (Range 2.29 - 4.5) vsat = Sözel derecesi (Range 200 - 700) msat = Sayısal derecesi (Range 330 - 770) dsci = 1 Bilim dalı için, 0 diğerleri dsoc = 1 Sosyal bilim dallı için, 0 diğerleri dhum = 1 Beşeri bilimdalı için 0 diğerleri darts = 1 Sanat dalı için, 0 diğerleri dcam = 1 Öğrenci kampüste yaşıyorsa, 0 diğerleri dpub = 1 Genel lise mezunu ise, 0 diğerleri

48 48 Dependent Variable: COLGPA Method: Least Squares Sample: 1 427 Included observations: 427 VariableCoefficientStd. Errort-StatisticProb. C0.3672960.2243021.6375060.1023 HSGPA0.4059140.0634186.4006300.0000 VSAT0.0007260.0002902.5039070.0127 MSAT0.0010860.0003033.5866090.0004 DSCI-0.0273230.057319-0.4766730.6338 DSOC0.0561480.0727780.7714940.4409 DHUM-0.0040590.141771-0.0286320.9772 DARTS0.2286500.1889211.2102940.2269 DCAM-0.0407050.052162-0.7803620.4356 DPUB0.0294030.0630400.466416 0.6412 Katsayılar istatistiki olarak anlamsız

49 49 Dependent Variable: COLGPA VariableCoefficient Std. Error t-Statistic Prob. C0.4232490.2197491.9260530.0548 HSGPA0.3983490.0605866.5748820.0000 VSAT0.0007370.0002812.6273610.0089 MSAT0.0010150.0002943.4577490.0006

50 Bağımlı değişken özünde iki değer alabiliyorsa yani bir özelliğin varlığı ya da yokluğu söz konusu ise bu durumda bağımlı kukla değişkenler söz konusudur. Bu durumdaki modelleri tahmin etmek için dört yaklaşım vardır: -Doğrusal Olasılık Modeli -Logit Modeli -Probit Modeli -Tobit Modeli Bağımlı Kukla Değişkenler

51 Doğrusal Olasılık Modeli Y i = 1Eğer i. Birey istenen özelliğe sahipse 0Diğer Durumlarda X i = Bağımsız değişken Bu modele olasılıklı model denmesinin nedeni, Y’nin X için şartlı beklenen değerinin, Y’nin X için şartlı olasılığına eşit olmasıdır. E(Y i |X i )= Pr(Y i =1| X i ) Y i = b 1 + b 2 X i +u i

52 Doğrusal Olasılık Modeli E(Y i |X i )= b 1 + b 2 X i E(u i ) = 0 Y i değişkeninin olasılık dağılımı: E(Y i |X i ) = P i E(Y i |X i )= b 1 + b 2 X i 0  E(Y i |X i )  1 Y i = b 1 + b 2 X i +u i =  Y i P i = 0.(1-P i ) + 1.(P i ) YiYi Olasılık 01-P i 1PiPi Toplam1

53 Doğrusal Olasılık Modeli D i = b 1 + b 2 Medeni i +b 3 Egitim i +u i D i = 1Eğer i. Kadının bir işi varsa ya da iş arıyorsa 0Diğer Durumlarda Medeni i = 1Eğer i. Kadın evliyse diğer durumlarda 0 Eğitim i = i.kadının yıl olarak aldığı eğitim Yaş i = i. Kadının Yaşı

54 DiDi MiMi AiAi SiSi DiDi MiMi AiAi SiSi 103116103510 113414114014 114116014310 00679013712 102512102713 015812102814 104514114812 10551001667 004312014411 10558012112 102511114010 104114104115 016212012310 115113013111 01399114412

55 Kadının İşgücüne Katılımı Modeli D i = b 1 + b 2 Medeni i +b 3 Egitim i Dependent Variable: DI Included observations: 30 VariableCoefficientStd. Errort-StatisticProb. C-0.2840.436-0.6520.520 MEDENI-0.3820.153-2.4940.019 EGITIM0.0930.0352.6880.012 R-squared0.363F-statistic7.708 Adjusted R-squared0.316Prob(F-statistic)0.002 S.E. of regression0.412Akaike info criterion1.159 Sum squared resid4.583Schwarz criterion1.299 Durbin-Watson stat2.551Hannan-Quinn criter.1.204

56 Heteroskedasticity Test: Breusch-Pagan-Godfrey F-statistic0.961929 Prob. F(2,27)0.3949 Obs*R-squared1.995437 Prob. Chi-Square(2)0.3687 Test Equation: Dependent Variable: RESID^2 VariableCoefficientStd. Errort-StatisticProb. C0.3325650.1713491.9408660.063 MEDENI0.0298020.0601860.4951630.625 EGITIM-0.0166210.013605-1.2216920.232 R-squared0.066515 Mean dependent var0.153 Adjusted R-squared-0.002633 S.D. dependent var0.162 S.E. of regression0.162013 Akaike info criterion-0.708 Sum squared resid0.708701 Schwarz criterion-0.568 F-statistic0.961929 Hannan-Quinn criter.-0.663 Prob(F-statistic)0.394868 Durbin-Watson stat2.085 Farklı Varyans Testi

57 Di Tahmin Değerleri DiDi-tahDiDi-tah 11.20410.646 10.6361 10.82200.264 00.55300.450 10.83210.925 00.45011.018 1 10.450 10.6460-0.015 00.83200.357 10.46000.450 10.73910.264 11.01811.111 00.45000.264 10.54300.357 00.17110.450

58 DOM Tahminindeki Sorunlar u i hata teriminin normal dağılmaması u i hata teriminin Binom Dağılımlı Olması u i hata teriminin değişen varyanslı olması 0  E(Y i |X i )  1 varsayımının yerine gelmeyişi

59 u i hata teriminin normal dağılmaması Normallik varsayımının sağlanmaması durumunda tahmin ediciler sapmasızlıklarını korurlar. Nokta tahminde normallik varsayımı gözardı edilir. Örnek hacmi sonsuza giderken EKK tahmincileri çoğunlukla normal dağılıma uyarlar. DOM ile yapılan istatistiksel çıkarsamalar normallik varsayımı altındaki EKK sürecine uyarlar.

60 DOM’de u’lar normal dağılmaz, binom dağılımı gösterir: Y 1 ve 0 değerini aldığında Y i =1 için Y i =0 için u’lar normal değildir. İki değerli binom dağılımlıdır. Ancak büyük örneklerde DOM güven aralıkları ve hipotez testleri geçerlidir ve EKKY normal dağılım varsayımının sağlandığı kabul edilmektedir. u i hata teriminin Binom Dağılımlı Olması

61 YiYi uiui İhtimal=P(u i ) 0-b 1 -b 2 X(1-P i ) 11-b 1 -b 2 XPiPi kesikli bir Y değişkeni varyansından hareketle Y yerine u alınarak u i hata teriminin değişen varyanslı olması u’nun varyansı farklıdır. u’nun varyansı Y’nin X için şartlı beklenen değerine bağlıdır ve sonuçta u’nun varyansı X’in değerine bağlı olacak ve eşit olmayacaktır.

62 DOM’nin EKKY ile tahmininde ortaya çıkan farklı varyans problemine aşağıdaki dönüşümlü modeli tahmin ederek çözüm getirmek mümkündür: Var(u i ) = P i (1-P i ) u i hata teriminin değişen varyanslı olması ler bilinmediğinden bunun yerine örnek tahmini değerleri hesaplanarak ifadesinde yerine konarakler kullanılır.

63 DOM’de Y’nin şartlı olasılığını gösteren E(Y|X) nın 0 ila 1 arasında bulunması şarttır. Y; 0 ve 1 değerini almaktadır.Bu şart anakütle için geçerlidir. Anakütlenin tahmincisi için geçerli olmayabilir. Tahmini şartlı olasılıklar 0 ile 1 olmayabilir: 0  E(Y i |X i )  1 varsayımının yerine gelmeyişi

64 0  E(Y i |X i )  1 0 ile 1 arasında mıdır? DOM”, EKKY ile elde edildikten sonra eşit olduğu kabul edilir. Bunlardan bir kısmı 0 dan küçük, negatif değerli ise, bunlar için 0 değerini alır. 1’den büyük değerli ise bunlar için nin 1’e Dönüştürmeden sonra EKKY tekrar uygulanır ve farklı varyansın kalktığı görülebilir. eşit varyanslıdır. Bu yöntem TEKKY’dir.

65 DOM’de Farklı Varyansı Önleme Dependent Variable: Included observations: 30 Variable CoefficientStd. Errort-StatisticProb. -0.1841540.316834-0.5812310.5659 -0.3628930.135229-2.6835510.0123 0.0816780.0222313.6740220.0010 R-squared0.872710 Mean dependent var2.190469 Adjusted R-squared0.863281 S.D. dependent var2.514662 S.E. of regression0.929809 Akaike info criterion2.786965 Sum squared resid23.34273 Schwarz criterion2.927085 Log likelihood-38.80448 F-statistic92.55700 Durbin-Watson stat2.583787 Prob(F-statistic)0.000000

66 DOM’e Alternatif Model Arama DOM ile ilgili sayılan sorunların hepsi bir şekilde aşılabilir Ancak, DOM, P i =E(Y=1|X) olasılığının X’le doğrusal olarak arttığını varsayar. Yani X’deki marjinal veya küçük bir artış hep sabittir. Gerçek hayatta ise bu beklenen bir durum değildir. DOM ile ilgili sorunlar şu iki özellik sayesinde aşılabilir: 1.X i arttıkça P i =E(Y=1|X)’de artar ancak 0 ile 1 aralığının dışına çıkmaması gerekmektedir. 2.P i ile X i arasındaki ilişkinin doğrusal olmaması gerekmektedir. 66

67 DOM’e Alternatif Model Arama Yukarıdaki iki özelliği taşıyan modelin şekli aşağıda verilmiştir: 0 1 P -- ++ X KDF Yukarıdaki eğri kümülatif dağılım fonksiyonuna benzemektedir. Bu fonksiyon kukla bağımlı değişkenli regresyon modellerinde kullanılabilir. 67

68 Logit Model Logistik Dağılım Fonksiyonu kümülatif lojistik dağılım fonksiyonudur. Bahis yada olabilirlik oranı Bu orana ev sahibi olma lehine fark oranı denir. Lojistik modelin her iki tarafının doğal log. alındığında L i fark oranı logaritması olup hem X, hem parametrelere göre doğrusaldır.Z değişkeni - dan + a değişirken, P 0 ile 1 arasında değişir. 68

69 Logit Model DOM’de şeklindedir. Logit modelde olasılık iken. 69

70 Z i, -  ile +  arasında değerler alırken P i ’nin aldığı değerler ise 0 ile 1 arasında değişmektedir. Z i ile P i arasındaki ilişki doğrusal değildir. Logit Model 70

71 Logit Modelin Özellikleri P i =1 = +  P i =0 = -  1.P i, 0’dan 1’e kadar değer aldığında, Logitte -  ile +  arasında değer alır. 2.Logit, X’e göre doğrusal iken olasılıklara göre değildir. 3.Logit modelin b 2 katsayısı şu şekilde yorumlanır: Bağımsız değişkendeki bir birimlik değişme karşısında logitteki değişmeyi gösterir. 4. Logit model tahmin edildikten sonra, X bağımsız değişkeninin belirli bir değeri için logitin gerçekleşme olasılığı hesaplanabilir. 71

72 Logit Modelin EKKY İle Tahmini 3.Adım: Orijinal lojistik modeli tahminlenir. 2.Adım: fark oranı logaritmaları hesaplanır. 1.Adım: İhtimalleri hesaplanır. Farklı varyans durumu söz konusu ise; orijinal lojistik modelin her iki tarafı da ile çarpılarak dönüşümlü lojistik model elde edilir.

73 Logit Modelin EKKY İle Tahmini Dönüşümlü veya Tartılı EKK Lojistik Modeli 73

74 Logistik Model Uygulaması 300 aileden oluşan küçük bir kasabada ailelerin, yıllık gelirleri (X i ) ve ev sahibi olanların sayısı (n i ) aşağıdaki tabloda gösterilmiştir. X Milyon TL) Aile Sayısı= N i Ev Sahibi Olan Aile Sayısı=n i Nispi Frekanslar P i =n i /N i 122050.25 162560.24 2035100.28 2645150.33 3050250.50 4034180.53 5030200.66 6026160.61 7020150.75 8015100.67  N i = 300  n i = 140 74

75 Logistik Model Uygulaması XiXi 1 12 16 20 26 30 40 50 60 70 80 NiNi 2 20 25 35 45 50 34 30 26 20 15 nini 3 5 6 10 15 25 18 20 16 15 10 PiPi 4=3/2 0.25 0.24 0.28 0.33 0.50 0.53 0.66 0.61 0.75 0.67 1-P i 5=1-4 0.75 0.76 0.72 0.67 0.50 0.47 0.34 0.39 0.25 0.33 P i /1- P i 6=4/5 0.33 0.31 0.39 0.49 1.00 1.13 1.94 1.56 3.00 2.03 LiLi 7=ln(6) -1.1086 -1.1712 -0.9416 -0.7133 0.0000 0.1222 0.6626 0.4446 1.0986 0.7080 75

76 Logistik Model Uygulaması Dependent Variable: L Method: Least Squares Included observations: 10 VariableCoefficientStd. Errort-StatisticProb. C-1.4097060.215776-6.5331920.0002 X0.0326690.0046677.0000110.0001 R-squared0.859649 Mean dependent var-0.089870 Adjusted R-squared0.842106 S.D. dependent var0.835010 S.E. of regression0.331799 Akaike info criterion0.808280 Sum squared resid0.880723 Schwarz criterion0.868797 Log likelihood-2.041402 F-statistic49.00015 Durbin-Watson stat1.582165 Prob(F-statistic)0.000113 76

77 Logistik Model Uygulaması v=N.P.(1-P) 8=2.4.5 3.75 4.56 7.05 9.95 12.50 8.47 6.73 6.18 3.75 3.31 vi vi 9=  8 1.9365 2.1354 2.6552 3.1543 3.5355 2.9103 2.5942 2.4859 1.9365 1.8193 L* 10=7.9 -2.1468 -2.5009 -2.5001 -2.4999 0.0000 0.3556 1.7189 1.1052 2.1274 1.2880 X* 11=1.9 23.2379 34.1666 53.1036 82.0134 106.0660 116.4130 129.7112 149.1576 135.5544 145.5472 77

78 Logistik Model Uygulaması L i *= -1.38056  v i + 0.03363 X i *, s= 0.8421 s(b i ): (0.2315)(0.00556), R2= 0.80 t=(-5.9617) (6.0424), d= 1.649,F= 36.95 Gelir bir birim arttığında, ev sahibi olma lehine fark oranının logaritması 0.033 artmaktadır. Bu fark oranına göre belli bir gelir seviyesinde ev sahibi olma olasılığı hesaplanabilir: X=40 iken değerleri yukarıdaki denklemde yerine konduğunda L*=-0.10288 bulunur. olabilirlik oranı 78

79 40 birim gelirli bir ailenin ev sahibi olma olasılığı %47.43’dür. Lojistik modelden, belli bir gelir seviyesinde gelirdeki bir birimlik artışın ev sahibi olma olasılığını ne ölçüde arttıracağı tahmin edilebilir: formülünden yararlanılır. X=40 iken gelir 1 birim arttığında ev sahibi olma olasılığı [0.03363(1-0.4743)0.4743]=0.00838(%0.8) 79

80 1 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION This sequence introduces the principle of maximum likelihood estimation and illustrates it with some simple examples. L p  

81 2 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Suppose that you have a normally-distributed random variable X with unknown population mean  and standard deviation , and that you have a sample of two observations, 4 and 6. For the time being, we will assume that  is equal to 1. L p  

82 3 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Suppose initially you consider the hypothesis  = 3.5. Under this hypothesis the probability density at 4 would be 0.3521 and that at 6 would be 0.0175. L p    p(4) p(6) 3.50.35210.0175 0.3521 0.0175

83 4 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint probability density, shown in the bottom chart, is the product of these, 0.0062.  p(4) p(6) L 3.50.35210.01750.0062 L p   0.3521 0.0175

84 5 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Next consider the hypothesis  = 4.0. Under this hypothesis the probability densities associated with the two observations are 0.3989 and 0.0540, and the joint probability density is 0.0215.  p(4) p(6) L 3.50.35210.01750.0062 4.00.39890.05400.0215 L p   0.3989 0.0540

85 6 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Under the hypothesis  = 4.5, the probability densities are 0.3521 and 0.1295, and the joint probability density is 0.0456.  p(4) p(6) L 3.50.35210.01750.0062 4.00.39890.05400.0215 4.50.35210.12950.0456 L p   0.3521 0.1295

86 7 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Under the hypothesis  = 5.0, the probability densities are both 0.2420 and the joint probability density is 0.0585.  p(4) p(6) L 3.50.35210.01750.0062 4.00.39890.05400.0215 4.50.35210.12950.0456 5.00.24200.24200.0585 L p   0.2420

87 8 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Under the hypothesis  = 5.5, the probability densities are 0.1295 and 0.3521 and the joint probability density is 0.0456.  p(4) p(6) L 3.50.35210.01750.0062 4.00.39890.05400.0215 4.50.35210.12950.0456 5.00.24200.24200.0585 5.50.12950.35210.0456 L p   0.3521 0.1295

88 9 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The complete joint density function for all values of  has now been plotted in the lower diagram. We see that it peaks at  = 5.  p(4) p(6) L 3.50.35210.01750.0062 4.00.39890.05400.0215 4.50.35210.12950.0456 5.00.24200.24200.0585 5.50.12950.35210.0456 p L   0.1295 0.3521

89 10 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now we will look at the mathematics of the example. If X is normally distributed with mean  and standard deviation , its density function is as shown.

90 11 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION For the time being, we are assuming  is equal to 1, so the density function simplifies to the second expression.

91 12 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Hence we obtain the probability densities for the observations where X = 4 and X = 6.

92 13 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint probability density for the two observations in the sample is just the product of their individual densities.

93 14 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION In maximum likelihood estimation we choose as our estimate of  the value that gives us the greatest joint density for the observations in our sample. This value is associated with the greatest probability, or maximum likelihood, of obtaining the observations in the sample.

94 15 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION In the graphical treatment we saw that this occurs when  is equal to 5. We will prove this must be the case mathematically.  p(4) p(6) L 3.50.35210.01750.0062 4.00.39890.05400.0215 4.50.35210.12950.0456 5.00.24200.24200.0585 5.50.12950.35210.0456 p L   0.1295 0.3521

95 16 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION To do this, we treat the sample values X = 4 and X = 6 as given and we use the calculus to determine the value of  that maximizes the expression.

96 17 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION When it is regarded in this way, the expression is called the likelihood function for , given the sample observations 4 and 6. This is the meaning of L(  | 4,6).

97 18 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION To maximize the expression, we could differentiate with respect to  and set the result equal to 0. This would be a little laborious. Fortunately, we can simplify the problem with a trick.

98 19 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION log L is a monotonically increasing function of L (meaning that log L increases if L increases and decreases if L decreases).

99 20 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION It follows that the value of  which maximizes log L is the same as the one that maximizes L. As it so happens, it is easier to maximize log L with respect to  than it is to maximize L.

100 21 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The logarithm of the product of the density functions can be decomposed as the sum of their logarithms.

101 22 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Using the product rule a second time, we can decompose each term as shown.

102 23 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now one of the basic rules for manipulating logarithms allows us to rewrite the second term as shown.

103 24 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION log e is equal to 1, another basic logarithm result. (Remember, as always, we are using natural logarithms, that is, logarithms to base e.)

104 25 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Hence the second term reduces to a simple quadratic in X. And so does the fourth.

105 26 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will now choose  so as to maximize this expression.

106 27 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Quadratic terms of the type in the expression can be expanded as shown.

107 28 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Thus we obtain the differential of the quadratic term.

108 29 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Applying this result, we obtain the differential of log L with respect to . (The first term in the expression for log L disappears completely since it is not a function of .)

109 30 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Thus from the first order condition we confirm that 5 is the value of  that maximizes the log-likelihood function, and hence the likelihood function.

110 31 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Note that a caret mark has been placed over , because we are now talking about an estimate of , not its true value.

111 32 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Note also that the second differential of log L with respect to  is -2. Since this is negative, we have found a maximum, not a minimum.

112 33 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will generalize this result to a sample of n observations X 1,...,X n. The probability density for X i is given by the first line.

113 34 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint density function for a sample of n observations is the product of their individual densities.

114 35 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now treating the sample values as fixed, we can re-interpret the joint density function as the likelihood function for , given this sample. We will find the value of  that maximizes it.

115 36 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will do this indirectly, as before, by maximizing log L with respect to . The logarithm decomposes as shown.

116 37 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We differentiate log L with respect to .

117 38 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The first order condition for a minimum is that the differential be equal to zero.

118 39 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Thus we have demonstrated that the maximum likelihood estimator of  is the sample mean. The second differential, -n, is negative, confirming that we have maximized log L.

119 40 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION So far we have assumed that , the standard deviation of the distribution of X, is equal to 1. We will now relax this assumption and find the maximum likelihood estimator of it.

120 41 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will illustrate the process graphically with the two-observation example, keeping  fixed at 5. We will start with  equal to 2. L  p 

121 42 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION With  equal to 2, the probability density is 0.1760 for both x = 4 and x = 6, and the joint density is 0.0310. L  p  p(4) p(6) L 2.00.17600.17600.0310 

122 43 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now try  equal to 1. The individual densities are 0.2420 and so the joint density, 0.0586, has increased. L  p  p(4) p(6) L 2.00.17600.17600.0310 1.00.24200.24200.0586 

123 44 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now try putting  equal to 0.5. The individual densities have fallen and the joint density is only 0.0117. L  p  p(4) p(6) L 2.00.17600.17600.0310 1.00.24200.24200.0586 0.50.10800.10800.0117 

124 45 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint density has now been plotted as a function of  in the lower diagram. You can see that in this example it is greatest for  equal to 1.  p(4) p(6) L 2.00.17600.17600.0310 1.00.24200.24200.0586 0.50.10800.10800.0117 L p  

125 46 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will now look at this mathematically, starting with the probability density function for x given  and .

126 47 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint density function for the sample of n observations is given by the second line.

127 48 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION As before, we can re-interpret this function as the likelihood function for  and , given the sample of observations.

128 49 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will find the values of  and  that maximize this function. We will do this indirectly by maximizing log L.

129 50 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We can decompose the logarithm as shown. To maximize it, we will set the partial derivatives with respect to  and  equal to zero.

130 51 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION When differentiating with respect to , the first two terms disappear. We have already seen how to differentiate the other terms.

131 52 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Setting the first differential equal to 0, the maximum likelihood estimate of  is the sample mean, as before.

132 53 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Next, we take the partial differential of the log-likelihood function with respect to .

133 54 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Before doing so, it is convenient to rewrite the equation.

134 55 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The derivative of log  with respect to  is 1/ . The derivative of  --2 is -2  --3.

135 56 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Setting the first derivative of log L to zero gives us a condition that must be satisfied by the maximum likelihood estimator.

136 57 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We have already demonstrated that the maximum likelihood estimator of  is the sample mean.

137 58 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Hence the maximum likelihood estimator of the population variance is the sample variance.

138 59 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Note that it is biased. The unbiased estimator is obtained by dividing by (n - 1), not n.

139 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION However it can be shown that the maximum likelihood estimator is asymptotically efficient, in the sense of having a smaller mean square error than the unbiased estimator in large samples. 60

140 1 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS X Y XiXi 11  1  +  2 X i Y =  1  +  2 X We will now apply the maximum likelihood principle to regression analysis, using the simple linear model Y =  1 +  2 X + u.

141 2 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS The black marker shows the value that Y would have if X were equal to X i and if there were no disturbance term. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

142 3 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS However we will assume that there is a disturbance term in the model and that it has a normal distribution as shown. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

143 4 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Relative to the black marker, the curve represents the ex ante distribution for u, that is, its potential distribution before the observation is generated. Ex post, of course, it is fixed at some specific value. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

144 5 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Relative to the horizontal axis, the curve also represents the ex ante distribution for Y for that observation, that is, conditional on X = X i. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

145 6 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Potential values of Y close to  1 +  2 X i will have relatively large densities... X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

146 X Y XiXi 11  1  +  2 X i Y =  1  +  2 X 7 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS... while potential values of Y relatively far from  1 +  2 X i will have small ones.

147 8 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS The mean value of the distribution of Y i is  1 +  2 X i. Its standard deviation is , the standard deviation of the disturbance term. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

148 9 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Hence the density function for the ex ante distribution of Y i is as shown. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

149 10 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS The joint density function for the observations on Y is the product of their individual densities.

150 11 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Now, taking  1,  2 and  as our choice variables, and taking the data on Y and X as given, we can re- interpret this function as the likelihood function for  1,  2, and .

151 12 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS We will choose  1,  2, and  so as to maximize the likelihood, given the data on Y and X. As usual, it is easier to do this indirectly, maximizing the log-likelihood instead.

152 13 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS As usual, the first step is to decompose the expression as the sum of the logarithms of the factors.

153 14 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Then we split the logarithm of each factor into two components. The first component is the same in each case.

154 15 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Hence the log-likelihood simplifies as shown.

155 16 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS To maximize the log-likelihood, we need to minimize Z. But choosing estimators of  1 and  2 to minimize Z is exactly what we did when we derived the least squares regression coefficients.

156 17 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Thus, for this regression model, the maximum likelihood estimators are identical to the least squares estimators. The estimator of  will, however, be slightly different.

157 Copyright Christopher Dougherty 2000-2002. This slideshow may be freely copied for personal use. 22.02.02

158 Probit Model Bağımlı kukla değişkenli modellerden kümülatif lojistik fonksiyonundan farklı olarak, normal kümülatif dağılım fonksiyonunu kullanan PROBİT(NORMAL) vardır. F(z)= P R O B İ T (NORMAL) MODEL Probit modeli şu şekilde tanımlayabiliriz: Herhangi bir i hanesinin ev sahibi olma veya olmama kararının gözlenemeyen bir fayda indeksi I i ’ye bağlı olduğunu varsayalım. 158

159 I i *  I i  ifadesi faydanın belli bir eşik değerinden sonra söz konusu olabileceğini gösterir. I i * başlangıç değeri de I i gibi gözlenemez. Ancak, aynı ortalama ve varyanslı normal dağıldığı varsayılarak I i değerleri yukarıdaki regresyon denkleminden tahmin edilir. Tahminciler bulunur. Normal dağılım varsayımıyla I i * ın I i den küçük veya eşit olma olasılığı aşağıdaki standartlaştırılmış normal KDF ile hesaplanabilir: I i = b 1 + b 2 X i I i, bağımsız değişkenlere bağlıdır. Örneğin X i (gelir)değişkeni. Her hane için I i ’nın belli bir değerinden itibaren ev sahibi olma durumu söz konusudur.I i değeri, I i * değerini aştığı zaman hane, ev sahibi olacak aksi durumda olmayacaktır. Y=1 hane ev sahibi Y=0 hane ev sahibi değil. (1) 159

160 =Standartlaştırılmış Normal KDF P i =Pr(Y=1)=Pr(I i *  I i )=F(I i ) =standartlaştırılmış normal değişken P i =Bir ev sahibi olma olasılığı. (2) 160

161 Probit Model 0 1 P i =F(I i ) -- ++ 0 1 -- ++ PiPi I i = b 1 + b 2 X i PiPi I i =F-1(P i ) I i * <=I i verilmişken ev sahibi olma olasılığı P i ordinatta bulunur P i verilmişken, absiste I i bulunur. 161

162 I i ’yı bulabilmek için 2 no’lu ifadenin tersi alınmalıdır. I i = (I i )= (P i )=b 1 +b 2 X i =Probit model : normal kümülatif dağılım fonksiyonunun tersi. 162

163 Probit Modelin Tahmin Aşamaları 1.P i = n i /N i hesaplanır. 2.I i = (P i )= normal eşdeğer sapma bulunur. 3.I i = b 1 + b 2 X i + u i EKK ile tahmin edilir. 4.İstenirse, I i yerine, (I i + 5)=probit değerleri alınarak, EKKY ile (13.19) tahmin edilir. 5.modelinin hata terimi u i farklı varyanslıdır. Bu sebepten dönüşümlü değerler alınarak TEKKY uygulanabilir:= 163

164 f i = (P i ) ifadesine eşit standart normal yoğunluk fonksiyonudur. 6.Büyük örnekler için b i 'lerin güven aralıkları ve hipotez testleri uygulanarak, anakütlede durumun geçerliliği araştırılabilir. 7.Belirlilik katsayısı R2, modelin fonksiyonel biçiminin iyi seçilip seçilmediği konusunda bize fikir vermez. 164

165 Probit Model Uygulaması PiPi 0.25 0.24 0.28 0.33 0.50 0.53 0.66 0.61 0.75 0.67 I i =F -1 (P i ) -0.6745 -0.7063 -0.5828 -0.4399 0.0000 0.0752 0.4124 0.2793 0.6745 0.4399 Probitler=Z i =(I i +5) 4.3255 4.2937 4.4172 4.5601 5.0000 5.0752 5.4124 5.2793 5.6745 5.4399 XiXi 12 16 20 26 30 40 50 60 70 80 165

166 Probit Model Uygulaması I i = -0.8587 + 0.0200 X i, r2= 0.8628r= 0.9289 s(b i )(0.0028) s= 0.2d= 1.59 t=(7.094) Z i = 4.1324 + 0.0201 X i, r2= 0.8621 r= 0.9285 s(b i ) (0.0028) s= 0.2d= 1.5637 t= (7.071) 166

167 Wooldridge Example 17.1 inlf kidslt6 kidsge6 age educ exper nwifeinc expersq Obs: 753 1. inlf =1 işgücüne katılıyorsa 2. kidslt6 6 < yaşında küçük çocuk sayısı 3. kidsge6 6-18 yaşları arasındaki çocuk sayısı 4. age kadının yaşı 5. educ eğitim yılı 6. exper deneyim 7. nwifeinc (ailegeliri – ücret*saat)/1000 8. expersq deneyimkare 167

168 Wooldridge Example 17.1-DİM Dependent Variable: INLF Method: Least SquaresIncluded observations: 753 VariableCoefficientStd. Errort-StatisticProb. NWIFEINC-0.0034050.001448-2.3508400.0190 EDUC0.0379950.0073765.1511940.0000 EXPER0.0394920.0056736.9618660.0000 EXPERSQ-0.0005960.000185-3.2269590.0013 AGE-0.0160910.002485-6.4760140.0000 KIDSLT6-0.2618100.033506-7.8138880.0000 KIDSGE60.0130120.0131960.9860770.3244 C0.5855190.1541783.7976830.0002 R-squared0.264216 Mean dependent var0.568393 Adjusted R-squared0.257303 S.D. dependent var0.495630 S.E. of regression0.427133 Akaike info criterion1.147124 Sum squared resid135.9197 Schwarz criterion1.196251 Log likelihood-423.8923 F-statistic38.21795 Durbin-Watson stat0.493840 Prob(F-statistic)0.000000 168

169 Wooldridge Example 17.1-LOGİT Dependent Variable: INLFMethod: ML - Binary LogitIncluded observations: 753 VariableCoefficientStd. Errorz-StatisticProb. NWIFEINC-0.0213450.008421-2.5346210.0113 EDUC0.2211700.0434405.0914430.0000 EXPER0.2058700.0320576.4220020.0000 EXPERSQ-0.0031540.001016-3.1040930.0019 AGE-0.0880240.014573-6.0402350.0000 KIDSLT6-1.4433540.203585-7.0896950.0000 KIDSGE60.0601120.0747900.8037500.4215 C0.4254520.8603690.4945000.6210 Mean dependent var0.568393 S.D. dependent var0.495630 S.E. of regression0.425963 Akaike info criterion1.088354 Sum squared resid135.1762 Schwarz criterion1.137481 Log likelihood-401.7652 Hannan-Quinn criter.1.107280 Restr. log likelihood-514.8732 Avg. log likelihood-0.533553 LR statistic (7 df)226.2161 McFadden R-squared0.219681 Probability(LR stat)0.000000 Obs with Dep=0325 Total obs753 Obs with Dep=1428 169

170 Wooldridge Example 17.1-PROBİT Dependent Variable: INLFMethod: ML - Binary ProbitIncluded observations: 753 VariableCoefficientStd. Errorz-StatisticProb. NWIFEINC-0.0120240.004840-2.4843270.0130 EDUC0.1309050.0252545.1834850.0000 EXPER0.1233480.0187166.5903480.0000 EXPERSQ-0.0018870.000600-3.1452050.0017 AGE-0.0528530.008477-6.2346560.0000 KIDSLT6-0.8683290.118522-7.3262880.0000 KIDSGE60.0360050.0434770.8281420.4076 C0.2700770.5085930.5310270.5954 Mean dependent var0.568393 S.D. dependent var0.495630 S.E. of regression0.425945 Akaike info criterion1.087124 Sum squared resid135.1646 Schwarz criterion1.136251 Log likelihood-401.3022 Hannan-Quinn criter.1.106050 Restr. log likelihood-514.8732 Avg. log likelihood-0.532938 LR statistic (7 df)227.1420 McFadden R-squared0.220581 Probability(LR stat)0.000000 Obs with Dep=0325 Total obs753 Obs with Dep=1428 170

171 UYGULAMA: Aşağıda bir okulun eğitimi ile ilgili verileri kullanarak Probit denklemini çıkartınız. GRADE: Yeni bir tekniğin uygulanması sonucu öğrencilerin başarısı PSI: Yeni Bir Ekonomi Öğretme Yöntemi GPA: Ortalama Derece TUCE: Sınav Öncesi Konu ile ilgili Bilgi SKoru 171

172 Dependent Variable: GRADE Method: ML - Binary Probit Included observations: 32 Convergence achieved after 5 iterations VariableCoefficientStd. Errorz-StatisticProb. C-7.4523202.542472-2.9311310.0034 GPA1.6258100.6938822.3430630.0191 PSI1.4263320.5950382.3970450.0165 TUCE0.0517290.0838900.6166260.5375 172

173 Dependent Variable: GRADE Method: ML - Binary Logit Sample: 1 32 VariableCoefficientStd. Errorz-StatisticProb. C-13.021354.931317-2.6405410.0083 GPA2.8261131.2629402.2377260.0252 PSI2.3786881.0645632.2344260.0255 TUCE0.0951580.1415540.6722350.5014 173

174 DiDi MiMi SiSi DiDi MiMi SiSi 10161010 111411 11160110 0090112 10 1013 01121014 10 1112 1010017 00120111 1080112 10111110 10141015 01120110 11130111 0191112 Kadının İşgücüne Katılımı Modeli: D i = 1 i.Kadının bir işi varsa ya da iş arıyorsa 0 Diğer Durumlarda M i = 1 i. Kadın evliyse 0 diğer durumlarda S i = i.kadının yıl olarak aldığı eğitim 174

175 Logit Model Tahminleri Dependent Variable: DI Method: ML - Binary Logit Included observations: 30 Convergence achieved after 5 iterations Covariance matrix computed using second derivatives VariableCoefficientStd. Errorz-StatisticProb. C-5.8959333.324731-1.7733560.0762 MI-2.5861101.180162-2.1913180.0284 SI0.6903680.3158282.1858990.0288 Mean dependent var0.600000 S.D. dependent var0.498273 S.E. of regression0.399177 Akaike info criterion1.085128 Sum squared resid4.302237 Schwarz criterion1.225248 Log likelihood-13.27693 Hannan-Quinn criter.1.129954 Restr. log likelihood-20.19035 Avg. log likelihood-0.442564 LR statistic (2 df)13.82685 McFadden R-squared0.342412 Probability(LR stat)0.000994 Obs with Dep=012 Total obs30 Obs with Dep=118 175


"Mehmet Vedat PAZARLIOĞLU KUKLA DEĞİŞKENLER. Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi." indir ppt

Benzer bir sunumlar


Google Reklamları