Sunum yükleniyor. Lütfen bekleyiniz

Sunum yükleniyor. Lütfen bekleyiniz

Mehmet Vedat PAZARLIOĞLU KUKLA DEĞİŞKENLER. Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi.

Benzer bir sunumlar


... konulu sunumlar: "Mehmet Vedat PAZARLIOĞLU KUKLA DEĞİŞKENLER. Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi."— Sunum transkripti:

1 Mehmet Vedat PAZARLIOĞLU KUKLA DEĞİŞKENLER

2 Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi karışıklıklar (=darbeler), iktisat politikasındaki değişiklikler, depremler, yangın ve benzeri nitel değişkenlerin ekonometrik bir modelde ifade edilme şeklidir.

3 Kukla Değişkenlerin Modelde Kullanımı Kukla Değişken/lerin Modelde bağımsız değişken olarak yer alması Kukla Değişkenin Modelde Bağımlı Değişken olarak yer alması

4 Bağımsız Kukla Değişkenler Bir kukla değişkenli modeller (Varyans Analiz Modelleri) Kukla değişkenlerin ve Sayısal değişkenlerin Birlikte yer aldığı Modeller (Kovaryans Analizi Modeller) Kukla değişkenlerin karşılıklı olarak birbirini etkilemeleri Mevsim dalgalanmalarının ölçülmesinde kukla değişkenler Parçalı Doğrusal Regresyon

5 Bir kukla değişkenli modeller Y i =  +  D i +u i Y i = Öğretim Üyelerinin Yıllık Maaşları D i = 1 Öğretim Üyesi Erkekse = 0 Diğer Durumlar (yani Kadın Öğretim Üyesi) Varyans Analiz Modelleri (ANOVA) Kadın Öğretim Üyelerinin Ortalama Maaşları: E( Y i |D i = 0 ) =  Erkek Öğretim Üyelerinin Ortalama Maaşları : E ( Y i |D i = 1) =  + 

6 Bir kukla değişkenli modeller MaaşCinsiyet Y i =  +  D i (0.32)(0.44) t(57.74)(7.44),R 2 =0.8737

7 Bir kukla değişkenli modeller Y i =  +  D i (0.32)(0.44) t(57.74)(7.44),R 2 = Kadın Öğretim Üyelerinin Ortalama Maaşları: Erkek Öğretim Üyelerinin Ortalama Maaşları : E( Y i |D i = 0 ) =  E ( Y i |D i = 1) =  +  =  Erkek ve Kadın Öğretim Üyelerinin Ortalama Maaş Farkı : 

8 Bir kukla değişkenli modeller Y i =  +  D i (0.32)(0.44) t(57.74)(7.44),R 2 =

9 Kukla değişken ve Sayısal Değişkenli Model Y i =   +   D i +  X i + u i Y i = Öğretim Üyelerinin Yıllık Maaşları X i = Öğretim Üyesinin Yıl olarak Tecrübesi D i = 1 Öğretim Üyesi Erkekse = 0 Diğer Durumlar (yani Kadın Öğretim Üyesi) Kadın Öğretim Üyelerinin Ortalama Maaşları : E( Y i |X i,D i = 0 ) =    X i Erkek Öğretim Üyelerinin Ortalama Maaşları : E ( Y i |X i,D i = 1) = (   +    X i

10 Kukla değişken ve Sayısal Değişkenli Model MaaşCinsiyetTecrübe Y i =  +  D i X i s(b)(0.95)(0.44)(0.09) (t)(15.843) (5.088)(3.211) p(0.000)(0.002)(0.020) R 2 =0.949

11 Kukla değişken ve Sayısal Değişkenli Model Kadın Öğretim Üyelerinin Maaş Fonksiyonu: Erkek Öğretim Üyelerinin Maaş Fonksiyonu: E( Y i |D i = 0 ) =  X i Erkek ve Kadın Öğretim Üyelerinin Ortalama Maaş Farkı :  Y i =  +  D i X i (t)(15.843) (5.088)(3.211) p(0.000)(0.002)(0.020) E( Y i |D i = 1 ) =  +  X i =  X i

12 Kukla değişken ve Sayısal Değişkenli Model E( Y i |D i = 0 ) =  X i E( Y i |D i = 1 ) =  +  X i =  X i   

13 Birden Fazla Kukla Değişkenli Modeller Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 X i + u i Y i = Sigara Tüketimi D 2 = 1 Sigara Tüketen ErkekD 3 = 1 Şehirde oturanların sigara tüketimi = 0 Sigara Tüketen Kadın = 0 Kırsalda oturanların sigara tüketimi X i = Gelir Kırdaki Kadınların Sigara Tüketimi: E( Y i |D 2 =0,Y i |D 3 =0) = b 1 + b 4 X i Kırdaki Erkeklerin Sigara Tüketimi : E (Y i |D 2 =1,Y i |D 3 =0) = b 1 + b 2 D 2 + b 4 X i Kentteki Kadınların Sigara Tüketimi: E( Y i |D 2 =0,Y i |D 3 =1 ) = b 1 + b 3 D 3 + b 4 X i Kentteki Erkeklerin Sigara Tüketimi: E( Y i |D 2 =1,Y i |D 3 =1 ) = b 1 + b 2 D 2 + b 3 D 3 + b 4 X i

14 Birden Fazla Kukla Değişkenli Modeller Yıllık Sigara Tüketimi Y i (100 TL) Cinsiyet(D 3 ) Şehir(D 3 ) Yıllık Gelir (X i )(100 TL)

15 Birden Fazla Kukla Değişkenli Modeller Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 X i + u i Y i = Sigara Tüketimi D 2 = 1 Sigara Tüketen ErkekD 3 = 1 Şehirde oturanların sigara tüketimi = 0 Sigara Tüketen Kadın = 0 Kırsalda oturanların sigara tüketimi X i = Gelir Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C D D X R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter

16 1.Sabit Terimlerin Farklı Eğimlerin Eşit olması Y i =  1 +  2 D i +  X i + u i Y i = Sigara Tüketimi D i = 1 Sigara Tüketen Erkek = 0 X i = Gelir E( Y i |X i,D i = 0 ) =    X i E ( Y i |X i,D i = 1) = (   +    X i

17 Kukla değişken ve Sayısal Değişkenli Model       Y i =  1 +  2 D i +  2 X i + u i

18 2. Sabit Terimlerin Eşit, Eğimlerin Farklı Olması Hali Y i =  1 +  1 D i X i +  2 X i + u i Y i = Sigara Tüketimi D i = 1 Sigara Tüketen Erkek = 0 X i = Gelir E( Y i |X i,D i = 0 ) =    2 X i E ( Y i |X i,D i = 1) =   + (    2  X i

19 19 ) )      11 YiYi XiXi E( Y i |X i,D i = 0 ) =    2 X i E ( Y i |X i,D i = 1) =   + (    2  X i 2. Sabit Terimlerin Eşit, Eğimlerin Farklı Olması Hali Y i =  1 +  1 D i X i +  2 X i + u i

20 3. Sabit Terim ve Eğimin İki Sınıf İçin Farklı Olması Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i Y i = Sigara Tüketimi D i = 1 Sigara Tüketen Erkek = 0 X i = Gelir E( Y i |X i,D i = 0 ) =    2 X i E ( Y i |X i,D i = 1) = (   +   ) + (    2  X i

21 21 YiYi XiXi )  )          E( Y i |X i,D i = 0 ) =    2 X i E ( Y i |X i,D i = 1) = (   +   ) + (    2  X i 3. Sabit Terim ve Eğimin İki Sınıf İçin Farklı Olması Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i

22 22  2 ve  1 ’ün t istatistikleri anlamsızsa iki sınıf sigara tüketim fonksiyonları aynı 2.  2 ve  1 ’ün t istatistikleri anlamlıysa iki sınıf sigara tüketim fonksiyonları farklı (3.durum)  2 ve  1 ’ün t istatistiklerinden  2 anlamsız ve  1 anlamlıysa sabit terim aynı eğim farklıdır. (2. durum) 4.  2 ve  1 ’ün t istatistiklerinden  2 anlamlı ve  1 anlamsızsa sabit terim farklı eğim aynıdır. (1. durum) Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i Modelin t İstatistiklerinin Değerlendirilmesi

23 23 Yıllık Sigara Tüketimi Cinsiyet (D i ) (Erkek = 1, Kadın = 0) Yıllık Gelir (X i ) İki Sınıf Modellerinin Farklılığının Kukla Değişken Yöntemi İle Testi Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i

24 24 İki Sınıf Modellerinin Farklılığının Kukla Değişken Yöntemi İle Testi Y i =  1 +  2 D i +  1 D i X i +  2 X i + u i Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C D D2*X X R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C X R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter

25 25 2. CHOW testi ile tüketim fonksiyonlarının farklılığının araştırılması Üç grup tüketim fonksiyonu tahmin edilir: H 0 : Erkek ve kadınlar için tüketim fonk. aynıdır. H 1 : Erkek ve kadınlar için tüketim fonk. farklıdır. 1.Erkek-kadın tüm tüketiciler için tüketim fonksiyonu: HKT= Erkekler için tüketim fonksiyonu: HKT= Kadınlar için tüketim fonksiyonu: HKT=1.865 F test = F tab = 5.14 (  =0.05 f 1 =2 f 2 =6 sd. lerinde) H 0 kabul

26 Birden Fazla Kukla Değişkenli Modeller Yıllık Sigara Tüketimi Y i (100 TL) Cinsiyet(D 3 ) Şehir(D 3 ) Yıllık Gelir (X i )(100 TL)

27 Birden Fazla Kukla Değişkenli Modeller Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 X i + u i Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C D D X R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C D X R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter

28 28 BİR MODELDE KUKLA DEĞİŞKENLERİN KARŞILIKLI OLARAK BİRBİRİNİ ETKİLEMELERİ PROBLEMİ Erkeğin Tüketim Farkı Şehirde Oturanların Tüketim Farkı Şehirde Oturan bir Erkeğin Tüketim Farkı

29 Birden Fazla Kukla Değişkenli Modeller Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 D 2 D 3 + b 5 X i + u i Dependent Variable: Y VariableCoefficientStd. Errort-StatisticProb. C D D D2*D X R-squared F-statistic Adjusted R-squared Prob(F-statistic) S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Durbin-Watson stat Hannan-Quinn criter Y i = b 1 + b 5 X i Y i = b 1 + b 2 D 2 + b 5 X i Y i = b 1 + b 3 D 3 + b 5 X i Y i = b 1 + b 2 D 2 + b 3 D 3 + b 4 D 2 D 3 + b 5 X i

30 30 MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDE N FAYDALANMA Üçer Aylar Karlar (Milyon Dolar) S atışlar (Milyon Dolar) 1965-I II III IV I II III IV D2D D3D D4D

31 31 MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN FAYDALANMA Dependent Variable: Kar Variable Coefficient Std. Error t-Statistic Prob. C D D D Satış R 2 = İstatistiki olarak anlamsız

32 32 MEVSİM DALGALANMALARININ ETKİSİNİN ARINDIRILMASINDA KUKLA DEĞİŞKENLERDEN FAYDALANMA Dependent Variable: Kar Sample: 1965:1 1970:4 VariableCoefficientStd. Error t-Statistic Prob. C D Satış R 2 = Mevsim dalgalanmalarının etkisinde

33 33 Parçalı Doğrusal Regresyon X*X* Satış Komisyonları Y X Bir sigorta şirketi satış temsilcilerinin belli bir satış hacmini geçmesi durumunda çalışanlarına komisyon ödemektedir. Şirket içerisinde gerçekleştirilen satış komisyon ücretleri belli bir satış hacmi(X * ) eşik düzeyine kadar doğrusal artmakta ve bu eşik düzeyinden sonra ise daha dik bir oranla satışlarla doğrusal olarak arttığı varsayılmaktadır. Bu durumda I ve II olarak numaralandırılmış iki parçadan oluşan parçalı doğrusal regresyona ve eşik düzeyinde eğimin değiştiği komisyon fonksiyonuna sahip olmuş oluruz. I II

34 34 Parçalı Doğrusal Regresyon Satış Komisyonları Y X Satışlar X*X* E(Y i | D i =1,X i, X * ) =  1 -  2 X * +(  1 +  2 )X i Y i = Satış Komisyonları X i = Satış Miktarı X * = Satışlarda Prim Eşik Değeri D= 1 Eğer X i > X * = 0 Eğer X i < X * E(Y i | D i =0,X i, X * ) =  1 +  1 X i Y i =  1 +  1 X i +  2 (X i -X * )D i +u i

35 35 Parçalı Doğrusal Regresyon Satış Komisyonları Y X Satışlar 11 1-2X*1-2X* 1 1 1+21+2 11 X*X*

36 36 Örnek Total Cost($) TC Output( units) Q DiDi Dependent Variable: TC Included observations: 10 VariableCoefficientStd. Errort-StatisticProb. C Q (Q-5500)*DI R 2 = F-statistic= [ ] İstatistiki olarak anlamsız Satışlardaki artışlar prim değerini arttırmamaktadır. Bir şirket satış temsilcilerinin belli bir satış hacmini geçmesi durumunda çalışanlarına prim ödemektedir. H 0 : Satışlardaki artışlar prim değerini arttırmamaktadır. H 1 : Satışlardaki artışlar prim değerini arttırmaktadır.

37 37 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI UYGULAMA: yıllarına arasında General Motor, Westinghouse ve General Electric firmalarına ait yatırım (Y), firmanın değeri (X 2 ) ve sermaye stoğu (X 3 ) verilerine ait tablo aşağıda verilmiştir.

38 38 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI Firmaların yatırımları arasında fark olup olmadığını inceleyebilmek için de kukla değişkenlerden yararlanabiliriz. Firmaların ilk üç yılına ait veriler ile oluşturulan yeni tablo aşağıdaki gibidir. YıllarY X2X3DiDi Firma GM GM GM WE WE WE GE GE GE General Motor(GM), Westinghouse(WE) ve General Electric (GE) yatırım (Y), firmanın değeri (X2 ) ve sermaye stoğu (X3)

39 39 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI GM yatırımlarının diğer firma yatırımlarından sabit terim kadar farklı olduğunu ifade etmektedir.

40 40 ZAMAN SERİSİ VE ÇAPRAZ-KESİT VERİLERİNİN BİRARAYA GETİRİLMESİNDE KUKLA DEĞİŞKENLERİN KULLANIMI Dependent Variable: Y Method: Least Squares Included observations: 60 VariableCoefficientStd. Errort-StatisticProb. C X X DI R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic) İstatistiksel olarak anlamlı

41 41 ÖRNEKLER

42 42 DATA yılları arasında Türkiye’deki Sigara Tüketimi Q Yetişkinlerin sigara tüketim miktarı(kg), Range Y GNP(1968) TL,Range PTürkiye’deki sigara fiyatları Range ED1Kayıtlı ortaokul ve lise mezunu nüfus oranı(12-17 yaş) Range ED2Kayıtlı üniversite mezunu oranı (20-24) Range D82= 1, 1982 ve sonrası D86= 1, 1986 ve sonrası

43 43 Dependent Variable: Q Sample: Included observations: 29 VariableCoefficientStd. Error t-Statistic Prob. P ED ED D D Y C Katsayılar istatistiksel olarak anlamsız

44 44 Dependent Variable: Q Method: Least Squares Sample: Included observations: 29 VariableCoefficientStd. Errort-StatisticProb. ED D D Y C

45 45 DATA7-2 Belirli bir şirkette çalışan 49 kişinin istihdam durumu ve ücretleri WAGE = Aylık Ücret (Range ) EDUC = 8 yıllık eğitimden sonraki sahip olunan eğitim seviyesi(Range ) EXPER =Şirkette çalışma süresi(Range ) AGE = Yaş ( ) GENDER = 1, Erkek ise; 0 kadın ise RACE = 1, beyaz ise; 0 diğerleri CLERICAL = 1 büro memuru ise, 0 diğerleri MAINT = 1 bakım işlerinde çalışıyor ise; 0 diğerleri CRAFTS =1,usta ise; 0 diğerleri Temel sınıf Profesyonel meslek grupları.

46 46 Dependent Variable: WAGE Method: Least Squares Included observations: 49 VariableCoefficientStd. Errort-StatisticProb. C EDUC EXPER GENDER RACE CLERICAL MAINT CRAFTS R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

47 47 DATA yılında koleje giriş yapan öğrencilerin ilk yıl başarılarını göstermekte colgpa = 1986 sonbaharındaki ortalamaları (Range ) hsgpa = Lise GPA (Range ) vsat = Sözel derecesi (Range ) msat = Sayısal derecesi (Range ) dsci = 1 Bilim dalı için, 0 diğerleri dsoc = 1 Sosyal bilim dallı için, 0 diğerleri dhum = 1 Beşeri bilimdalı için 0 diğerleri darts = 1 Sanat dalı için, 0 diğerleri dcam = 1 Öğrenci kampüste yaşıyorsa, 0 diğerleri dpub = 1 Genel lise mezunu ise, 0 diğerleri

48 48 Dependent Variable: COLGPA Method: Least Squares Sample: Included observations: 427 VariableCoefficientStd. Errort-StatisticProb. C HSGPA VSAT MSAT DSCI DSOC DHUM DARTS DCAM DPUB Katsayılar istatistiki olarak anlamsız

49 49 Dependent Variable: COLGPA VariableCoefficient Std. Error t-Statistic Prob. C HSGPA VSAT MSAT

50 Bağımlı değişken özünde iki değer alabiliyorsa yani bir özelliğin varlığı ya da yokluğu söz konusu ise bu durumda bağımlı kukla değişkenler söz konusudur. Bu durumdaki modelleri tahmin etmek için dört yaklaşım vardır: -Doğrusal Olasılık Modeli -Logit Modeli -Probit Modeli -Tobit Modeli Bağımlı Kukla Değişkenler

51 Doğrusal Olasılık Modeli Y i = 1Eğer i. Birey istenen özelliğe sahipse 0Diğer Durumlarda X i = Bağımsız değişken Bu modele olasılıklı model denmesinin nedeni, Y’nin X için şartlı beklenen değerinin, Y’nin X için şartlı olasılığına eşit olmasıdır. E(Y i |X i )= Pr(Y i =1| X i ) Y i = b 1 + b 2 X i +u i

52 Doğrusal Olasılık Modeli E(Y i |X i )= b 1 + b 2 X i E(u i ) = 0 Y i değişkeninin olasılık dağılımı: E(Y i |X i ) = P i E(Y i |X i )= b 1 + b 2 X i 0  E(Y i |X i )  1 Y i = b 1 + b 2 X i +u i =  Y i P i = 0.(1-P i ) + 1.(P i ) YiYi Olasılık 01-P i 1PiPi Toplam1

53 Doğrusal Olasılık Modeli D i = b 1 + b 2 Medeni i +b 3 Egitim i +u i D i = 1Eğer i. Kadının bir işi varsa ya da iş arıyorsa 0Diğer Durumlarda Medeni i = 1Eğer i. Kadın evliyse diğer durumlarda 0 Eğitim i = i.kadının yıl olarak aldığı eğitim Yaş i = i. Kadının Yaşı

54 DiDi MiMi AiAi SiSi DiDi MiMi AiAi SiSi

55 Kadının İşgücüne Katılımı Modeli D i = b 1 + b 2 Medeni i +b 3 Egitim i Dependent Variable: DI Included observations: 30 VariableCoefficientStd. Errort-StatisticProb. C MEDENI EGITIM R-squared0.363F-statistic7.708 Adjusted R-squared0.316Prob(F-statistic)0.002 S.E. of regression0.412Akaike info criterion1.159 Sum squared resid4.583Schwarz criterion1.299 Durbin-Watson stat2.551Hannan-Quinn criter.1.204

56 Heteroskedasticity Test: Breusch-Pagan-Godfrey F-statistic Prob. F(2,27) Obs*R-squared Prob. Chi-Square(2) Test Equation: Dependent Variable: RESID^2 VariableCoefficientStd. Errort-StatisticProb. C MEDENI EGITIM R-squared Mean dependent var0.153 Adjusted R-squared S.D. dependent var0.162 S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion F-statistic Hannan-Quinn criter Prob(F-statistic) Durbin-Watson stat2.085 Farklı Varyans Testi

57 Di Tahmin Değerleri DiDi-tahDiDi-tah

58 DOM Tahminindeki Sorunlar u i hata teriminin normal dağılmaması u i hata teriminin Binom Dağılımlı Olması u i hata teriminin değişen varyanslı olması 0  E(Y i |X i )  1 varsayımının yerine gelmeyişi

59 u i hata teriminin normal dağılmaması Normallik varsayımının sağlanmaması durumunda tahmin ediciler sapmasızlıklarını korurlar. Nokta tahminde normallik varsayımı gözardı edilir. Örnek hacmi sonsuza giderken EKK tahmincileri çoğunlukla normal dağılıma uyarlar. DOM ile yapılan istatistiksel çıkarsamalar normallik varsayımı altındaki EKK sürecine uyarlar.

60 DOM’de u’lar normal dağılmaz, binom dağılımı gösterir: Y 1 ve 0 değerini aldığında Y i =1 için Y i =0 için u’lar normal değildir. İki değerli binom dağılımlıdır. Ancak büyük örneklerde DOM güven aralıkları ve hipotez testleri geçerlidir ve EKKY normal dağılım varsayımının sağlandığı kabul edilmektedir. u i hata teriminin Binom Dağılımlı Olması

61 YiYi uiui İhtimal=P(u i ) 0-b 1 -b 2 X(1-P i ) 11-b 1 -b 2 XPiPi kesikli bir Y değişkeni varyansından hareketle Y yerine u alınarak u i hata teriminin değişen varyanslı olması u’nun varyansı farklıdır. u’nun varyansı Y’nin X için şartlı beklenen değerine bağlıdır ve sonuçta u’nun varyansı X’in değerine bağlı olacak ve eşit olmayacaktır.

62 DOM’nin EKKY ile tahmininde ortaya çıkan farklı varyans problemine aşağıdaki dönüşümlü modeli tahmin ederek çözüm getirmek mümkündür: Var(u i ) = P i (1-P i ) u i hata teriminin değişen varyanslı olması ler bilinmediğinden bunun yerine örnek tahmini değerleri hesaplanarak ifadesinde yerine konarakler kullanılır.

63 DOM’de Y’nin şartlı olasılığını gösteren E(Y|X) nın 0 ila 1 arasında bulunması şarttır. Y; 0 ve 1 değerini almaktadır.Bu şart anakütle için geçerlidir. Anakütlenin tahmincisi için geçerli olmayabilir. Tahmini şartlı olasılıklar 0 ile 1 olmayabilir: 0  E(Y i |X i )  1 varsayımının yerine gelmeyişi

64 0  E(Y i |X i )  1 0 ile 1 arasında mıdır? DOM”, EKKY ile elde edildikten sonra eşit olduğu kabul edilir. Bunlardan bir kısmı 0 dan küçük, negatif değerli ise, bunlar için 0 değerini alır. 1’den büyük değerli ise bunlar için nin 1’e Dönüştürmeden sonra EKKY tekrar uygulanır ve farklı varyansın kalktığı görülebilir. eşit varyanslıdır. Bu yöntem TEKKY’dir.

65 DOM’de Farklı Varyansı Önleme Dependent Variable: Included observations: 30 Variable CoefficientStd. Errort-StatisticProb R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

66 DOM’e Alternatif Model Arama DOM ile ilgili sayılan sorunların hepsi bir şekilde aşılabilir Ancak, DOM, P i =E(Y=1|X) olasılığının X’le doğrusal olarak arttığını varsayar. Yani X’deki marjinal veya küçük bir artış hep sabittir. Gerçek hayatta ise bu beklenen bir durum değildir. DOM ile ilgili sorunlar şu iki özellik sayesinde aşılabilir: 1.X i arttıkça P i =E(Y=1|X)’de artar ancak 0 ile 1 aralığının dışına çıkmaması gerekmektedir. 2.P i ile X i arasındaki ilişkinin doğrusal olmaması gerekmektedir. 66

67 DOM’e Alternatif Model Arama Yukarıdaki iki özelliği taşıyan modelin şekli aşağıda verilmiştir: 0 1 P -- ++ X KDF Yukarıdaki eğri kümülatif dağılım fonksiyonuna benzemektedir. Bu fonksiyon kukla bağımlı değişkenli regresyon modellerinde kullanılabilir. 67

68 Logit Model Logistik Dağılım Fonksiyonu kümülatif lojistik dağılım fonksiyonudur. Bahis yada olabilirlik oranı Bu orana ev sahibi olma lehine fark oranı denir. Lojistik modelin her iki tarafının doğal log. alındığında L i fark oranı logaritması olup hem X, hem parametrelere göre doğrusaldır.Z değişkeni - dan + a değişirken, P 0 ile 1 arasında değişir. 68

69 Logit Model DOM’de şeklindedir. Logit modelde olasılık iken. 69

70 Z i, -  ile +  arasında değerler alırken P i ’nin aldığı değerler ise 0 ile 1 arasında değişmektedir. Z i ile P i arasındaki ilişki doğrusal değildir. Logit Model 70

71 Logit Modelin Özellikleri P i =1 = +  P i =0 = -  1.P i, 0’dan 1’e kadar değer aldığında, Logitte -  ile +  arasında değer alır. 2.Logit, X’e göre doğrusal iken olasılıklara göre değildir. 3.Logit modelin b 2 katsayısı şu şekilde yorumlanır: Bağımsız değişkendeki bir birimlik değişme karşısında logitteki değişmeyi gösterir. 4. Logit model tahmin edildikten sonra, X bağımsız değişkeninin belirli bir değeri için logitin gerçekleşme olasılığı hesaplanabilir. 71

72 Logit Modelin EKKY İle Tahmini 3.Adım: Orijinal lojistik modeli tahminlenir. 2.Adım: fark oranı logaritmaları hesaplanır. 1.Adım: İhtimalleri hesaplanır. Farklı varyans durumu söz konusu ise; orijinal lojistik modelin her iki tarafı da ile çarpılarak dönüşümlü lojistik model elde edilir.

73 Logit Modelin EKKY İle Tahmini Dönüşümlü veya Tartılı EKK Lojistik Modeli 73

74 Logistik Model Uygulaması 300 aileden oluşan küçük bir kasabada ailelerin, yıllık gelirleri (X i ) ve ev sahibi olanların sayısı (n i ) aşağıdaki tabloda gösterilmiştir. X Milyon TL) Aile Sayısı= N i Ev Sahibi Olan Aile Sayısı=n i Nispi Frekanslar P i =n i /N i  N i = 300  n i =

75 Logistik Model Uygulaması XiXi NiNi nini PiPi 4=3/ P i 5= P i /1- P i 6=4/ LiLi 7=ln(6)

76 Logistik Model Uygulaması Dependent Variable: L Method: Least Squares Included observations: 10 VariableCoefficientStd. Errort-StatisticProb. C X R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

77 Logistik Model Uygulaması v=N.P.(1-P) 8= vi vi 9=  L* 10= X* 11=

78 Logistik Model Uygulaması L i *=  v i X i *, s= s(b i ): (0.2315)( ), R2= 0.80 t=( ) (6.0424), d= 1.649,F= Gelir bir birim arttığında, ev sahibi olma lehine fark oranının logaritması artmaktadır. Bu fark oranına göre belli bir gelir seviyesinde ev sahibi olma olasılığı hesaplanabilir: X=40 iken değerleri yukarıdaki denklemde yerine konduğunda L*= bulunur. olabilirlik oranı 78

79 40 birim gelirli bir ailenin ev sahibi olma olasılığı %47.43’dür. Lojistik modelden, belli bir gelir seviyesinde gelirdeki bir birimlik artışın ev sahibi olma olasılığını ne ölçüde arttıracağı tahmin edilebilir: formülünden yararlanılır. X=40 iken gelir 1 birim arttığında ev sahibi olma olasılığı [ ( )0.4743]= (%0.8) 79

80 1 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION This sequence introduces the principle of maximum likelihood estimation and illustrates it with some simple examples. L p  

81 2 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Suppose that you have a normally-distributed random variable X with unknown population mean  and standard deviation , and that you have a sample of two observations, 4 and 6. For the time being, we will assume that  is equal to 1. L p  

82 3 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Suppose initially you consider the hypothesis  = 3.5. Under this hypothesis the probability density at 4 would be and that at 6 would be L p    p(4) p(6)

83 4 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint probability density, shown in the bottom chart, is the product of these,  p(4) p(6) L L p  

84 5 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Next consider the hypothesis  = 4.0. Under this hypothesis the probability densities associated with the two observations are and , and the joint probability density is  p(4) p(6) L L p  

85 6 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Under the hypothesis  = 4.5, the probability densities are and , and the joint probability density is  p(4) p(6) L L p  

86 7 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Under the hypothesis  = 5.0, the probability densities are both and the joint probability density is  p(4) p(6) L L p  

87 8 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Under the hypothesis  = 5.5, the probability densities are and and the joint probability density is  p(4) p(6) L L p  

88 9 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The complete joint density function for all values of  has now been plotted in the lower diagram. We see that it peaks at  = 5.  p(4) p(6) L p L  

89 10 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now we will look at the mathematics of the example. If X is normally distributed with mean  and standard deviation , its density function is as shown.

90 11 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION For the time being, we are assuming  is equal to 1, so the density function simplifies to the second expression.

91 12 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Hence we obtain the probability densities for the observations where X = 4 and X = 6.

92 13 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint probability density for the two observations in the sample is just the product of their individual densities.

93 14 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION In maximum likelihood estimation we choose as our estimate of  the value that gives us the greatest joint density for the observations in our sample. This value is associated with the greatest probability, or maximum likelihood, of obtaining the observations in the sample.

94 15 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION In the graphical treatment we saw that this occurs when  is equal to 5. We will prove this must be the case mathematically.  p(4) p(6) L p L  

95 16 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION To do this, we treat the sample values X = 4 and X = 6 as given and we use the calculus to determine the value of  that maximizes the expression.

96 17 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION When it is regarded in this way, the expression is called the likelihood function for , given the sample observations 4 and 6. This is the meaning of L(  | 4,6).

97 18 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION To maximize the expression, we could differentiate with respect to  and set the result equal to 0. This would be a little laborious. Fortunately, we can simplify the problem with a trick.

98 19 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION log L is a monotonically increasing function of L (meaning that log L increases if L increases and decreases if L decreases).

99 20 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION It follows that the value of  which maximizes log L is the same as the one that maximizes L. As it so happens, it is easier to maximize log L with respect to  than it is to maximize L.

100 21 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The logarithm of the product of the density functions can be decomposed as the sum of their logarithms.

101 22 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Using the product rule a second time, we can decompose each term as shown.

102 23 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now one of the basic rules for manipulating logarithms allows us to rewrite the second term as shown.

103 24 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION log e is equal to 1, another basic logarithm result. (Remember, as always, we are using natural logarithms, that is, logarithms to base e.)

104 25 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Hence the second term reduces to a simple quadratic in X. And so does the fourth.

105 26 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will now choose  so as to maximize this expression.

106 27 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Quadratic terms of the type in the expression can be expanded as shown.

107 28 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Thus we obtain the differential of the quadratic term.

108 29 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Applying this result, we obtain the differential of log L with respect to . (The first term in the expression for log L disappears completely since it is not a function of .)

109 30 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Thus from the first order condition we confirm that 5 is the value of  that maximizes the log-likelihood function, and hence the likelihood function.

110 31 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Note that a caret mark has been placed over , because we are now talking about an estimate of , not its true value.

111 32 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Note also that the second differential of log L with respect to  is -2. Since this is negative, we have found a maximum, not a minimum.

112 33 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will generalize this result to a sample of n observations X 1,...,X n. The probability density for X i is given by the first line.

113 34 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint density function for a sample of n observations is the product of their individual densities.

114 35 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now treating the sample values as fixed, we can re-interpret the joint density function as the likelihood function for , given this sample. We will find the value of  that maximizes it.

115 36 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will do this indirectly, as before, by maximizing log L with respect to . The logarithm decomposes as shown.

116 37 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We differentiate log L with respect to .

117 38 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The first order condition for a minimum is that the differential be equal to zero.

118 39 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Thus we have demonstrated that the maximum likelihood estimator of  is the sample mean. The second differential, -n, is negative, confirming that we have maximized log L.

119 40 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION So far we have assumed that , the standard deviation of the distribution of X, is equal to 1. We will now relax this assumption and find the maximum likelihood estimator of it.

120 41 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will illustrate the process graphically with the two-observation example, keeping  fixed at 5. We will start with  equal to 2. L  p 

121 42 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION With  equal to 2, the probability density is for both x = 4 and x = 6, and the joint density is L  p  p(4) p(6) L 

122 43 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now try  equal to 1. The individual densities are and so the joint density, , has increased. L  p  p(4) p(6) L 

123 44 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Now try putting  equal to 0.5. The individual densities have fallen and the joint density is only L  p  p(4) p(6) L 

124 45 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint density has now been plotted as a function of  in the lower diagram. You can see that in this example it is greatest for  equal to 1.  p(4) p(6) L L p  

125 46 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will now look at this mathematically, starting with the probability density function for x given  and .

126 47 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The joint density function for the sample of n observations is given by the second line.

127 48 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION As before, we can re-interpret this function as the likelihood function for  and , given the sample of observations.

128 49 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We will find the values of  and  that maximize this function. We will do this indirectly by maximizing log L.

129 50 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We can decompose the logarithm as shown. To maximize it, we will set the partial derivatives with respect to  and  equal to zero.

130 51 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION When differentiating with respect to , the first two terms disappear. We have already seen how to differentiate the other terms.

131 52 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Setting the first differential equal to 0, the maximum likelihood estimate of  is the sample mean, as before.

132 53 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Next, we take the partial differential of the log-likelihood function with respect to .

133 54 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Before doing so, it is convenient to rewrite the equation.

134 55 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION The derivative of log  with respect to  is 1/ . The derivative of  --2 is -2  --3.

135 56 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Setting the first derivative of log L to zero gives us a condition that must be satisfied by the maximum likelihood estimator.

136 57 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION We have already demonstrated that the maximum likelihood estimator of  is the sample mean.

137 58 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Hence the maximum likelihood estimator of the population variance is the sample variance.

138 59 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION Note that it is biased. The unbiased estimator is obtained by dividing by (n - 1), not n.

139 INTRODUCTION TO MAXIMUM LIKELIHOOD ESTIMATION However it can be shown that the maximum likelihood estimator is asymptotically efficient, in the sense of having a smaller mean square error than the unbiased estimator in large samples. 60

140 1 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS X Y XiXi 11  1  +  2 X i Y =  1  +  2 X We will now apply the maximum likelihood principle to regression analysis, using the simple linear model Y =  1 +  2 X + u.

141 2 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS The black marker shows the value that Y would have if X were equal to X i and if there were no disturbance term. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

142 3 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS However we will assume that there is a disturbance term in the model and that it has a normal distribution as shown. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

143 4 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Relative to the black marker, the curve represents the ex ante distribution for u, that is, its potential distribution before the observation is generated. Ex post, of course, it is fixed at some specific value. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

144 5 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Relative to the horizontal axis, the curve also represents the ex ante distribution for Y for that observation, that is, conditional on X = X i. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

145 6 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Potential values of Y close to  1 +  2 X i will have relatively large densities... X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

146 X Y XiXi 11  1  +  2 X i Y =  1  +  2 X 7 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS... while potential values of Y relatively far from  1 +  2 X i will have small ones.

147 8 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS The mean value of the distribution of Y i is  1 +  2 X i. Its standard deviation is , the standard deviation of the disturbance term. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

148 9 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Hence the density function for the ex ante distribution of Y i is as shown. X Y XiXi 11  1  +  2 X i Y =  1  +  2 X

149 10 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS The joint density function for the observations on Y is the product of their individual densities.

150 11 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Now, taking  1,  2 and  as our choice variables, and taking the data on Y and X as given, we can re- interpret this function as the likelihood function for  1,  2, and .

151 12 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS We will choose  1,  2, and  so as to maximize the likelihood, given the data on Y and X. As usual, it is easier to do this indirectly, maximizing the log-likelihood instead.

152 13 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS As usual, the first step is to decompose the expression as the sum of the logarithms of the factors.

153 14 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Then we split the logarithm of each factor into two components. The first component is the same in each case.

154 15 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Hence the log-likelihood simplifies as shown.

155 16 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS To maximize the log-likelihood, we need to minimize Z. But choosing estimators of  1 and  2 to minimize Z is exactly what we did when we derived the least squares regression coefficients.

156 17 MAXIMUM LIKELIHOOD ESTIMATION OF REGRESSION COEFFICIENTS Thus, for this regression model, the maximum likelihood estimators are identical to the least squares estimators. The estimator of  will, however, be slightly different.

157 Copyright Christopher Dougherty This slideshow may be freely copied for personal use

158 Probit Model Bağımlı kukla değişkenli modellerden kümülatif lojistik fonksiyonundan farklı olarak, normal kümülatif dağılım fonksiyonunu kullanan PROBİT(NORMAL) vardır. F(z)= P R O B İ T (NORMAL) MODEL Probit modeli şu şekilde tanımlayabiliriz: Herhangi bir i hanesinin ev sahibi olma veya olmama kararının gözlenemeyen bir fayda indeksi I i ’ye bağlı olduğunu varsayalım. 158

159 I i *  I i  ifadesi faydanın belli bir eşik değerinden sonra söz konusu olabileceğini gösterir. I i * başlangıç değeri de I i gibi gözlenemez. Ancak, aynı ortalama ve varyanslı normal dağıldığı varsayılarak I i değerleri yukarıdaki regresyon denkleminden tahmin edilir. Tahminciler bulunur. Normal dağılım varsayımıyla I i * ın I i den küçük veya eşit olma olasılığı aşağıdaki standartlaştırılmış normal KDF ile hesaplanabilir: I i = b 1 + b 2 X i I i, bağımsız değişkenlere bağlıdır. Örneğin X i (gelir)değişkeni. Her hane için I i ’nın belli bir değerinden itibaren ev sahibi olma durumu söz konusudur.I i değeri, I i * değerini aştığı zaman hane, ev sahibi olacak aksi durumda olmayacaktır. Y=1 hane ev sahibi Y=0 hane ev sahibi değil. (1) 159

160 =Standartlaştırılmış Normal KDF P i =Pr(Y=1)=Pr(I i *  I i )=F(I i ) =standartlaştırılmış normal değişken P i =Bir ev sahibi olma olasılığı. (2) 160

161 Probit Model 0 1 P i =F(I i ) -- ++ 0 1 -- ++ PiPi I i = b 1 + b 2 X i PiPi I i =F-1(P i ) I i * <=I i verilmişken ev sahibi olma olasılığı P i ordinatta bulunur P i verilmişken, absiste I i bulunur. 161

162 I i ’yı bulabilmek için 2 no’lu ifadenin tersi alınmalıdır. I i = (I i )= (P i )=b 1 +b 2 X i =Probit model : normal kümülatif dağılım fonksiyonunun tersi. 162

163 Probit Modelin Tahmin Aşamaları 1.P i = n i /N i hesaplanır. 2.I i = (P i )= normal eşdeğer sapma bulunur. 3.I i = b 1 + b 2 X i + u i EKK ile tahmin edilir. 4.İstenirse, I i yerine, (I i + 5)=probit değerleri alınarak, EKKY ile (13.19) tahmin edilir. 5.modelinin hata terimi u i farklı varyanslıdır. Bu sebepten dönüşümlü değerler alınarak TEKKY uygulanabilir:= 163

164 f i = (P i ) ifadesine eşit standart normal yoğunluk fonksiyonudur. 6.Büyük örnekler için b i 'lerin güven aralıkları ve hipotez testleri uygulanarak, anakütlede durumun geçerliliği araştırılabilir. 7.Belirlilik katsayısı R2, modelin fonksiyonel biçiminin iyi seçilip seçilmediği konusunda bize fikir vermez. 164

165 Probit Model Uygulaması PiPi I i =F -1 (P i ) Probitler=Z i =(I i +5) XiXi

166 Probit Model Uygulaması I i = X i, r2= r= s(b i )(0.0028) s= 0.2d= 1.59 t=(7.094) Z i = X i, r2= r= s(b i ) (0.0028) s= 0.2d= t= (7.071) 166

167 Wooldridge Example 17.1 inlf kidslt6 kidsge6 age educ exper nwifeinc expersq Obs: inlf =1 işgücüne katılıyorsa 2. kidslt6 6 < yaşında küçük çocuk sayısı 3. kidsge yaşları arasındaki çocuk sayısı 4. age kadının yaşı 5. educ eğitim yılı 6. exper deneyim 7. nwifeinc (ailegeliri – ücret*saat)/ expersq deneyimkare 167

168 Wooldridge Example 17.1-DİM Dependent Variable: INLF Method: Least SquaresIncluded observations: 753 VariableCoefficientStd. Errort-StatisticProb. NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE C R-squared Mean dependent var Adjusted R-squared S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood F-statistic Durbin-Watson stat Prob(F-statistic)

169 Wooldridge Example 17.1-LOGİT Dependent Variable: INLFMethod: ML - Binary LogitIncluded observations: 753 VariableCoefficientStd. Errorz-StatisticProb. NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE C Mean dependent var S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood Hannan-Quinn criter Restr. log likelihood Avg. log likelihood LR statistic (7 df) McFadden R-squared Probability(LR stat) Obs with Dep=0325 Total obs753 Obs with Dep=

170 Wooldridge Example 17.1-PROBİT Dependent Variable: INLFMethod: ML - Binary ProbitIncluded observations: 753 VariableCoefficientStd. Errorz-StatisticProb. NWIFEINC EDUC EXPER EXPERSQ AGE KIDSLT KIDSGE C Mean dependent var S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood Hannan-Quinn criter Restr. log likelihood Avg. log likelihood LR statistic (7 df) McFadden R-squared Probability(LR stat) Obs with Dep=0325 Total obs753 Obs with Dep=

171 UYGULAMA: Aşağıda bir okulun eğitimi ile ilgili verileri kullanarak Probit denklemini çıkartınız. GRADE: Yeni bir tekniğin uygulanması sonucu öğrencilerin başarısı PSI: Yeni Bir Ekonomi Öğretme Yöntemi GPA: Ortalama Derece TUCE: Sınav Öncesi Konu ile ilgili Bilgi SKoru 171

172 Dependent Variable: GRADE Method: ML - Binary Probit Included observations: 32 Convergence achieved after 5 iterations VariableCoefficientStd. Errorz-StatisticProb. C GPA PSI TUCE

173 Dependent Variable: GRADE Method: ML - Binary Logit Sample: 1 32 VariableCoefficientStd. Errorz-StatisticProb. C GPA PSI TUCE

174 DiDi MiMi SiSi DiDi MiMi SiSi Kadının İşgücüne Katılımı Modeli: D i = 1 i.Kadının bir işi varsa ya da iş arıyorsa 0 Diğer Durumlarda M i = 1 i. Kadın evliyse 0 diğer durumlarda S i = i.kadının yıl olarak aldığı eğitim 174

175 Logit Model Tahminleri Dependent Variable: DI Method: ML - Binary Logit Included observations: 30 Convergence achieved after 5 iterations Covariance matrix computed using second derivatives VariableCoefficientStd. Errorz-StatisticProb. C MI SI Mean dependent var S.D. dependent var S.E. of regression Akaike info criterion Sum squared resid Schwarz criterion Log likelihood Hannan-Quinn criter Restr. log likelihood Avg. log likelihood LR statistic (2 df) McFadden R-squared Probability(LR stat) Obs with Dep=012 Total obs30 Obs with Dep=


"Mehmet Vedat PAZARLIOĞLU KUKLA DEĞİŞKENLER. Kukla Değişken Nedir? Cinsiyet, eğitim seviyesi, meslek, din, ırk, bölge, tabiiyet, savaşlar, grevler, siyasi." indir ppt

Benzer bir sunumlar


Google Reklamları