Sunum yükleniyor. Lütfen bekleyiniz

Sunum yükleniyor. Lütfen bekleyiniz

Basit Regresyon Model: Y =  1 +  2 X + u Gauss-Markov Şartları: 1.E(u i ) = 0 1 Regresyon katsayılarının istenen özelliklere sahip olması hata terimi.

Benzer bir sunumlar


... konulu sunumlar: "Basit Regresyon Model: Y =  1 +  2 X + u Gauss-Markov Şartları: 1.E(u i ) = 0 1 Regresyon katsayılarının istenen özelliklere sahip olması hata terimi."— Sunum transkripti:

1 Basit Regresyon Model: Y =  1 +  2 X + u Gauss-Markov Şartları: 1.E(u i ) = 0 1 Regresyon katsayılarının istenen özelliklere sahip olması hata terimi ile ilgili şu dört varsayıma bağlıdır. conditions are satisfied. GAUSS-MARKOV TEOREMİ İLE b 1 VE b 2 ’nin SAPMASIZLIĞI

2 İlki, u hata terimimin beklenen değeri sıfır olup, bu nedenle de y’i ne pozitif ne de negatif olarak etkileme eğiliminde değildir. 2 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 Basit Regresyon Model: Y =  1 +  2 X + u Gauss-Markov Şartları: 1.E(u i ) = 0

3 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 1.E(u i ) = 0 SupposeE(u i )=  u 0. 3 Eğer denklemde sabit terim var ise bu şartın kendiliğinde sağlanacağını varsaymak gayet mantıklıdır. u’nun ortalamasının 0 olmadığını kabul edelim. GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

4 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 1.E(u i ) = 0 SupposeE(u i )=  u 0. Definev= u -  u, so u = v +  u u’nun ortalamasından sapmaya eş değer yeni bir tesadüfi değişken (v) tanımlayalım. 4 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

5 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 1.E(u i ) = 0 SupposeE(u i )=  u 0. Definev= u -  u, so u = v +  u ThenY=  1 +  2 X + v +  u = (  1 +  u ) +  2 X + v Modeli yeniden düzenleyelim 5 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

6 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 1.E(u i ) = 0 SupposeE(u i )=  u 0. Definev= u -  u, so u = v +  u ThenY=  1 +  2 X + v +  u = (  1 +  u ) +  2 X + v whereE(v)= E(u -  u ) = E(u) - E(  u ) = 0 Yeni modeldeki hata terimi ilk şartı sağlayacaktır. Fakat sabit terim sapmalı olacaktır. 6 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

7 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 1.E(u i ) = 0 SupposeE(u i )=  u 0. Definev= u -  u, so u = v +  u ThenY=  1 +  2 X + v +  u = (  1 +  u ) +  2 X + v whereE(v)= E(u -  u ) = E(u) - E(  u ) = 0 7 Sabit terim genellikle Y’deki her hangi bir sistematik etkiyi üzerinde topladığından dolayı bu durumu kabul edebiliriz. This is usually acceptable because the role of the constant is usually to pick up any systematic tendency in Y not accounted for by the explanatory variable(s). GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

8 Simple regression model: Y =  1 +  2 X + u Normality assumption u has a normal distribution 21 In addition to the Gauss-Markov conditions, one usually assumes that the disturbance term is normally distributed. This is necessary for the validity of the usual tests. GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

9 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 2.population variance of u i is the same for all i 8 İkinci şart şudur: Örnekteki farklı gözlemlere göre hata teriminin değerleri sabit varyanslı dağılımdan çekilmiştir. GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

10 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 2.population variance of u i is the same for all i Bu şartın ayrıntıları farklı varyans konusunda ele alınacaktır. 9 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

11 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 3.population covariance of u i and u j = 0, all i not equal to j 10 ÜÇ The third condition is that value of the disturbance term in any observation should be independent of its value in any other observation. GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

12 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 3.population covariance of u i and u j = 0, all i not equal to j Again, a discussion of the meaning and implications of this condition will be deferred until we come to the topic of autocorrelation (the violation of the condition). 11 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

13 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc 12 The final condition comes in two versions, weak and strong. The strong version is that the explanatory variable(s) should be nonstochastic, that is, not have random components. GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

14 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc This is actually very unrealistic for economic variables and we will eventually switch to the weak version of the condition, where the explanatory variables are allowed to have random components provided that they are distributed independently of the disturbance term. 13 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

15 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc However for the time being we will use the strong version because it simplifies our analysis of the properties of the estimators. 14 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

16 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc Here is an example of a nonstochastic explanatory variable. Suppose that we are relating earnings to years of schooling, S, defined as the highest grade completed. 15 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

17 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc Suppose that we know from the national census that 1% of the population have S = 8, 3% have S = 9, 5% have HGC=10, 7% have S = 11, 43% have S = 12 (graduation from high school), and so on. 16 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

18 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc Suppose that we have decided to undertake a survey with sample size 1,000 and we want the sample to match the population as far as possible. 17 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

19 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc We might then select what is known as a stratified random sample, designed so that it includes 10 individuals with S = 8, 30 individuals with S = 9, and so on. 18 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

20 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc The values of S in the sample would then be predetermined and therefore nonstochastic. 19 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

21 Simple regression model: Y =  1 +  2 X + u Gauss-Markov conditions 4.X nonstochastic For example, stratified random sample, sample size 1,000: S n , etc Schooling and other demographic variables in large surveys drawn in such a way as to be representative of the population as a whole, like the National Longitudinal Survey of Youth, probably approximate this condition quite well. 20 GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

22 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 We will now investigate the properties of the OLS estimators, starting with the slope coefficient. 22

23 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 The first step is to express the estimator in terms of its fundamental components by substituting for Y from the true model. 23

24 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 We have already done this once in the previous sequence, but it will do no harm to do it again. Here we have used the first covariance rule to break up the numerator. 24

25 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2  1 is a constant, so the first term is zero. Using the second covariance rule, we can take  2 out of the second term. 25

26 Simple regression model: Y =  1 +  2 X + u Unbiasedness 26 Hence we obtain true value and error term. GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2

27 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 To investigate unbiasedness, we now take the expectation of b 2. 27

28 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 Using the first expected value rule, this may be decomposed as shown. 28

29 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 Since  2 is a constant, the first term is just  2. 29

30 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 By virtue of the assumption that X is nonstochastic, Var(X) is nonstochastic. Thus, using the second expected value rule, we may take it out of the second term. 30

31 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 The expected value of Cov(X, u) is zero. We will prove this. 31

32 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 We have used the second expected value rule to bring the factor (1/n) out of the expected value expression, and the first expected value rule to rewrite the expectation as the sum of the expectations of the individual terms. 32

33 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 Since X is nonstochastic, the term involving it and its mean can be taken out of each expectation as a factor. 33

34 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 The expected value of u in each observation is zero, and hence so is the expected value of its sample mean. Thus the expectation of Cov(X, u) is zero. 34

35 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 Thus we have demonstrated that b 2 is an unbiased estimator of  2. 35

36 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 We will also demonstrate that b 1 is an unbiased estimator of  1. 36

37 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 First we substitute for Y, or rather, in this case, its sample mean, using the true model. 37

38 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 Next we take expectations. 38

39 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 We use the first expected value rule to decompose the expectation as shown. 39

40 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2  1 is a constant, so its expected value is itself.  2 is also a constant, so it can be taken out of the second term as a factor. 40

41 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 The expectation of the sample mean of u is zero, so the third term is zero. Finally, the sample mean of X is nonstochastic, so it can be taken out of the fourth term as a factor. 41

42 Simple regression model: Y =  1 +  2 X + u Unbiasedness GAUSS-MARKOV CONDITIONS AND UNBIASEDNESS OF b 1 AND b 2 We have just demonstrated that E(b 2 ) is equal to  2. Hence b 1 is an unbiased estimator of  1  42

43 Tesadüfi Değişken Olarak Regresyon Katsayıları Regresyon katsayıları tesadüfi değişkenlerin özel tipidir. X ile Y arasındaki ilişkiyi gösteren basit regresyon modelini kullanarak bu durumu açıklayalım. Yukarıdaki iki eşitlik gerçek model ve tahmin edilen regresyon modelini gösterir. 1

44 Tesadüfi Değişken Olarak Regresyon Katsayıları Yukarıda gösterilen eğim katsayısının sıradan EKK tahmincisinin davranışını araştıralım. 2

45 Tesadüfi Değişken Olarak Regresyon Katsayıları Burada b 2, X ve Y’ye bağlı iken, diğer taraftan Y’deki değişim X, u ve  1 ve  2 parametrelerine bağlıdır. Bu nedenle Y’nin davranışı sonuçta X ve u, ve parametreler tarafından etkilenmektedir. 3

46 Tesadüfi Değişken Olarak Regresyon Katsayıları b 2 ’nin davranışını gereği gibi açıklamak için, Y yerine gerçek modeli yerine yazıyoruz. 4

47 Tesadüfi Değişken Olarak Regresyon Katsayıları İlk kovaryans kuralını kullanarak, payı üç kısma ayıralım. 5

48 Tesadüfi Değişken Olarak Regresyon Katsayıları  1 Sabit olduğundan, Cov(X,  1 )sıfırdır. 6

49 Tesadüfi Değişken Olarak Regresyon Katsayıları İkinci kovaryans kuralını kullanarak,  2 ’yi orta terimin dışına alabiliriz. 7

50 Tesadüfi Değişken Olarak Regresyon Katsayıları Cov(X, X) ile Var(X) ayni ifadedir. Böylece b 2 ’ iki kısma ayrılabilir : gerçek değer,  2, ve hata terimi. 8

51 Tesadüfi Değişken Olarak Regresyon Katsayıları Hata terimi, örnekteki her gözlemin karışıklık teriminin( disturbance term ) değerine bağlıdır, ve böylece de tesadüfi değişkenin özel biçimi olmaktadır. 9

52 10 Tesadüfi Değişken Olarak Regresyon Katsayıları Biz onun b 2 üzerindeki etkisini iki şekilde araştırabiliyoruz : İlki doğrudan Monte Carlo denemelerini kullanmak, ikinci ise analitik olarak.

53 Tesadüfi Değişken Olarak Regresyon Katsayıları Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Bir monte Carlo denemesi kontrol edilebilen şartlar altında regresyon tahmincilerinin özelliklerini değerlendirmek amacıyla laboratuar benzeri deneme yapmaktır. 11

54 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Basit doğrusal regresyon uygulandığında EKK regresyon katsayılarının davranışını araştıralım. 11 Tesadüfi Değişken Olarak Regresyon Katsayıları

55 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Y’nin X-değişkeni ile hata terimi tarafından belirlendiğini varsayalım. Sonra X değişkeni değerleri ile parametre değerleri seçelim. 11 Tesadüfi Değişken Olarak Regresyon Katsayıları

56 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Ayrıca bilinen bir dağılımdan karışıklık terimleri (disturbance term) değerlerini üretelim. 11 Tesadüfi Değişken Olarak Regresyon Katsayıları

57 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Örnekteki Y’nin değerleri, X değişkeninin değerleri, parametreler ve karışıklık terimi tarafından belirlenecektir. 11 Tesadüfi Değişken Olarak Regresyon Katsayıları

58 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Tahminciler Parametrelerin değerlerinin tahmini Ve sonra yalnızca Y ve X’ler kullanarak parametre tahminleri elde etmek için regresyon tekniğini kullanacağız. 16 Tesadüfi Değişken Olarak Regresyon Katsayıları

59 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Tahminciler Parametrelerin değerlerinin tahmini Tesadüfi olarak elde edeceğimiz yeni karışıklık terimlerini kullanarak ayni X değişkeni ve ayni parametre değerleri ile süreci sonsuz sayıda tekrar edebiliriz. 16 Tesadüfi Değişken Olarak Regresyon Katsayıları

60 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Tahminciler Parametrelerin değerlerinin tahmini Bu şekilde, regresyon tahmincileri için olasılık dağılımını elde edebiliriz. Ve ayrıca onların sapmalı ya da sapmasız olup olmadıklarını kontrol edebiliriz. 16 Tesadüfi Değişken Olarak Regresyon Katsayıları

61 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Tahminciler Parametrelerin değerlerinin tahmini Y =  1 +  2 X + u X = 1, 2,..., 20  1 = 2.0  2 = 0.5 u bağımsız olup N(0,1) Y = X + u Y’nin değerlerini üretin Bu denemede örneğimizde 20 gözlem vardır. X, 1, 2,..., 20 değerlerini almaktadır.  1 =2.0 ve  2 = 0.5’dir. 19 Tesadüfi Değişken Olarak Regresyon Katsayıları

62 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Tahminciler Parametrelerin değerlerinin tahmini Y =  1 +  2 X + u X = 1, 2,..., 20  1 = 2.0  2 = 0.5 u bağımsız olup N(0,1) Y = X + u Y’nin değerlerini üretin Karışıklık terimi (disturbance term) sıfır ortalamaya ve birim varyansa sahip olacak şekilde normal dağılım kullanılarak tesadüfi olarak üretilir. Böylece Y değerlerini üretiriz. 19 Tesadüfi Değişken Olarak Regresyon Katsayıları

63 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Tahminciler Parametrelerin değerlerinin tahmini Y =  1 +  2 X + u X = 1, 2,..., 20  1 = 2.0  2 = 0.5 u bağımsız olup N(0,1) Y = X + u Y’nin değerlerini üretin 19 b 2 = Cov(X, Y)/Var(X); Parametrelerin değerlerini tahmin edin EEK tahmin tekniğini kullanarak Y’nin X’e göre regresyonu tahmin edip  1 ve  2 gerçek değerlerine göre b 1 and b 2 tahminlerimizin nasıl olduğunu göreceğiz. Tesadüfi Değişken Olarak Regresyon Katsayıları

64 X X u YX X u Y Y = X + u Burada keyfi birim esasına göre seçilen X değerleri vardır. 22 Tesadüfi Değişken Olarak Regresyon Katsayıları

65 X X u YX X u Y Y = X + u Verilen  1 ve  2 katsayılarını kullanarak, Y’nin stokastik olmayan unsurunu elde edebiliriz. 23 Tesadüfi Değişken Olarak Regresyon Katsayıları

66 Stokastik olmayan unsur grafiksel olarak gösterilebilir. 24 Tesadüfi Değişken Olarak Regresyon Katsayıları

67 X X u YX X u Y Y = X + u Sonra N(0,1) dağılımını kullanarak her bir gözlem için tesadüfi bir şekilde karışıklık terimi değeri üretilir. 25 Tesadüfi Değişken Olarak Regresyon Katsayıları

68 X X u YX X u Y Y = X + u Örneğin ilk gözlem için Y’nin değeri 2.50 değil 1.91 olarak elde edilir. 26 Tesadüfi Değişken Olarak Regresyon Katsayıları

69 X X u YX X u Y Benzer şekilde diğer 19 gözlem için Y’nin değerleri üretilir. Y = X + u Tesadüfi Değişken Olarak Regresyon Katsayıları

70 20 gözlemin dağılımı yukarıdadır. 28 Tesadüfi Değişken Olarak Regresyon Katsayıları

71 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Tahminciler Parametrelerin değerlerinin tahmini Y =  1 +  2 X + u X = 1, 2,..., 20  1 = 2.0  2 = 0.5 u bağımsız olup N(0,1) Y = X + u Y’nin değerlerini üretin 19 Bu noktada biz Monte Carlo denemelerine ulaştık. Tesadüfi Değişken Olarak Regresyon Katsayıları

72 Y’nin X, parametre değerleri ve u tarafından belirlendiği modeli seçin X için veri seçin Parametre değerlerini seçin u’nun dağılımını seçin Model Y’nin değerlerini üretin Tahminciler Parametrelerin değerlerinin tahmini Y =  1 +  2 X + u X = 1, 2,..., 20  1 = 2.0  2 = 0.5 u bağımsız olup N(0,1) Y = X + u Y’nin değerlerini üretin 19 b 2 = Cov(X, Y)/Var(X); Parametrelerin değerlerini tahmin edin Şimdi X ve Y verilerine b 1 ve b 2 için EKK tahmincileri uygulayıp gerçek değerlere göre nasıl tahminler elde edeceğimizi göreceğiz. Tesadüfi Değişken Olarak Regresyon Katsayıları

73 Tekrar dağılma diyagramını inceleyelim. 31 Tesadüfi Değişken Olarak Regresyon Katsayıları

74 Regresyon tahmincileri yalnızca gözlenen X ve Y verilerini kullanır. 32 Tesadüfi Değişken Olarak Regresyon Katsayıları

75 Burada verilere uydurulan regresyon denklemi vardır. 33 Tesadüfi Değişken Olarak Regresyon Katsayıları

76 Karşılaştırma için, gerçek ilişkinin stokastik olmayan unsuruda gösterilmiştir.  2 (gerçek değeri 0.50) aşırı tahmin edilirken  1 (gerçek değer 2.00) aşağıda tahmin edilmiştir.. 34 Tesadüfi Değişken Olarak Regresyon Katsayıları

77 Y’nin ayni stokastik olmayan unsuruyla başlayarak süreci tekrar inceliyoruz. 35 Tesadüfi Değişken Olarak Regresyon Katsayıları

78 Daha önceden gösterildiği üzere, Y’nin değerleri tesadüfi olarak üretilen karışıklık terimi değerleri ilave edilerek elde edilir. 36 Tesadüfi Değişken Olarak Regresyon Katsayıları

79 Karışıklık teriminin yeni değerleri daha önceden olduğu gibi ayni N(0,1) dağılımından çekilirken yalnızca bir tanesi şansa bağlı değildir. 37 Tesadüfi Değişken Olarak Regresyon Katsayıları

80 Bu defa eğim katsayısı gerçek değerinin altında, sabit ise gerçek değerinin üzerinde tahmin edilmiştir. 38 Tesadüfi Değişken Olarak Regresyon Katsayıları

81 Süreci bir kez daha tekrar edelim. 39 Tesadüfi Değişken Olarak Regresyon Katsayıları

82 Tesadüfi sayıların yeni seti Y’nin değerlerinin üretilmesinde kullanılmıştır. 40 Tesadüfi Değişken Olarak Regresyon Katsayıları

83 Burada da, gerçek değerlerden eğim katsayısı altta, sabit katsayı ise üstte tahmin edilmiştir. 41 Tesadüfi Değişken Olarak Regresyon Katsayıları

84 Tablo üç regresyon ve ayrıca sürecin 7 kez tekrar edilmesiyle elde edilen sonuçlar özetlenmiştir. 42 Tekerrür b 1 b Tesadüfi Değişken Olarak Regresyon Katsayıları

85 Burada  2 tahminlerinin histogramı vardır. Ancak henüz hiçbir şey net olarak görülmemektedir replications Tesadüfi Değişken Olarak Regresyon Katsayıları

86 Burada sürecin ilave 40 tekerrüründen elde edilen  2 tahminleri vardır Tesadüfi Değişken Olarak Regresyon Katsayıları

87 Histogram merkezi eğilim göstermeye başlamıştır tekerrür Tesadüfi Değişken Olarak Regresyon Katsayıları

88 Bu 100 tekerrürün histogramıdır. Burada şunu görebiliriz: gerçek değerin etrafında simetrik bir şekilde ortaya çıkmaktadır ki buda tahmincilerin sapmasız olduğunu gösterir tekerrür Tesadüfi Değişken Olarak Regresyon Katsayıları

89 Yine de, dağılım hala oldukça girintili çıkıntılıdır. Aslında biz bu süreci en az 1000 tekrar etmeliyiz tekerrür Tesadüfi Değişken Olarak Regresyon Katsayıları

90 Kırmızı çizgi dağılımın biçiminin sınırlarını göstermektedir. Gerçek değerin etrafında simetrik olup, tahmincinin sapmasız olduğunu doğrulamaktadır tekerrür Tesadüfi Değişken Olarak Regresyon Katsayıları

91 Dağılım normaldir. Karışıklık terimleri normal dağılımdan çekilmiştir tekerrür Tesadüfi Değişken Olarak Regresyon Katsayıları

92 Copyright Christopher Dougherty This slideshow may be freely copied for personal use.


"Basit Regresyon Model: Y =  1 +  2 X + u Gauss-Markov Şartları: 1.E(u i ) = 0 1 Regresyon katsayılarının istenen özelliklere sahip olması hata terimi." indir ppt

Benzer bir sunumlar


Google Reklamları