A) NİCEL VERİ ANALİZ TEKNİKLERİ Nicel araştırmalarda toplanan verilerin farklı analiz yöntemleri vardır. Bu yöntemler iki farklı şekilde sınıflandırılmaktadır. Bunlar; 1. Veri analizlerine göre sınıflama 2. Değişken sayısına göre sınıflama 3. Analiz türüne göre sınıflama 1. Veri analizlerine göre sınıflamalar a. Parametrik analiz teknikleri b. Parametrik olmayan (non-parametrik) analiz teknikleri (Özcan & Özbay, 2002)
3. Analiz Türüne Göre Sınıflamalar a. Farklılıkları belirlemek için yapılan analizler Bu analizlerde, araştırmada farklı gruplardan toplanan verilerin karşılaştırılması yapılır. Temel özelliği, toplanan verilerin farklı gruplarda farklı olup olmadığını belirlemektir (Robson, 1994). Bu analizlerden bazıları şunlardır: İki gruptan toplanan veriler arasında farklılık olup olmadığını araştıran analizler: t-testi, z-testi, ki-kare, Mann-Whitney U İkiden fazla gruptan toplanan veriler arasında farklılık olup olmadığını araştıran analizler : ANOVA, One-way ANOVA ve ki-kare, Kruskal Wallis
b. İlişkileri belirlemek için yapılan analizler Bu analizlerde, araştırmada farklı veri dizileri arasında bir ilişki olup olmadığını analiz edilir. Veriler arasında ilişki varsa yönü ve gücü hesaplanır . Bu analizlerden bazıları şunlardır: Bağımlı-bağımsız değişkene göre yapılan analizler: Regresyon analizi, ayırma analizi, gruplama analizi Bağımlı bağımsız değişken ayrımı olmayan analizler: Korelasyon analizi, faktör analizi
• Parametrik Analiz Teknikleri a) t-Testi: t-testi sosyal bilimlerin bir çok alanında yaygın olarak kullanılan analizlerden biridir. t-testi örneklem sayısının küçük olduğu ve evrene ait standart sapmaların belirlenemediği durumlarda t tablosu dağılımını kullanarak tek veya iki grup arasında farkın olup olmadığını tespite yönelik tek değişkenli hipotez sınama testidir. t- testi iki gruba ayrılır: i. Bağımsız gruplar için t-testi: Bir birinden bağımsız iki örneklem ortalamaları arasındaki farkın anlamlı olup olmadığını test etmek için kullanılır (Büyüköztürk, 2002). ii. Bağımlı gruplar için t-testi: Aynı örneklem grubundan iki farklı zamanda veya farklı iki değişkene yönelik olarak toplanan veriler arasında anlamlı farklılık olup olmadığını test etmek için kullanılır.
b) ANOVA ve One-Way ANOVA ( F Testi-Varyans analizi) t-testi ile iki grup arasındaki karşılaştırmalar yapılabilirken, ikiden fazla grup olduğunda ANOVA analizleri kullanılır. Örneğin; kız ve erkeklerin başarı puanları bağımsız gruplar için t-testi ile, öğretmen, doktor ve mühendislerin gelir düzeylerinin karşılaştırılmasında One-Way ANOVA analizi kullanılır. Buradaki amaç, bağımsız değişkendeki gruplar için bağımlı değişkene ait ortalama değerlerin birbirinden farklılık gösterip göstermediğini tespit etmektir. Elde edilen puanları F tablosuyla karşılaştırılarak gruplar arasında anlamlı farklılık olup olmadığı belirlenir. Varyans analizi sonunda, grupların ortalama puanları arasında istatistiksel olarak anlamlı bir farklılık belirlenirse, analizin devamında çoklu karşılaştırma (post-hoc) testleri yapılarak hangi gruplar arasında farklılık olduğu tespit edilmeye çalışılır (Özdamar, 2002).
ANOVA yapabilmek için; Varyans analizinde en az bir bağımlı ve bir bağımsız değişken olmak zorundadır. Bağımsız değişken en az iki, genellikle ikiden fazla kategoriye ayrılmış olmalıdır (Örnek; Lise 1, Lise 2 ve Lise 3. sınıfların akademik başarı puanlarının karşılaştırılması) Her bir grubun normal dağılım sergileyen bir ana kitleden tesadüfi olarak seçilmiş olması gereklidir (Altunışık ve ark., 2002). Grupların varyanslarının birbirine eşit olması gereklidir. Bağımlı değişken sürekli ölçme özelliğine sahip iken (ağırlık- uzunluk-başarı puanı), bağımsız değişken kategorik ya da gruplanmış (esmer-sarışın-kumral) olmalıdır. Bir bağımsız değişkenin olduğu durum Tek-Yönlü Varyans Analizi (One-Way ANOVA), iki bağımsız değişken olduğu durum ise İki-Yönlü varyans analizi (Two-Way ANOVA) olarak isimlendirilir.
Parametrik olmayan (non-parametrik)analiz teknikleri Parametrik testler için gerekli ön şartları sağlayamayan veya örneklem sayısının az olduğu durumlarda, veri dağılımı için ön şart koşmayan analiz tekniklerine ihtiyaç vardır. Bu tekniklerden bazıları şunlardır. a)Mann Whitney U Testi İki kategoriye ayrılan örneklemden elde edilen puanların birbirlerinden anlamlı bir şekilde farklılık gösterip göstermediğini test etmek için kullanılan analizdir. Bu analiz verilerin ortanca değerine göre yapılmaktadır. Bu test ilişkisiz ölçümler yapıldığında, örneklem sayısı az olduğunda ve deneysel çalışmalarda puanlar normal dağılım göstermediğinde sıklıkla kullanılır.
Bu analizde ilk olarak iki gruptan toplanan veriler, grup ayrımı yapılmaksızın küçükten büyük puana doğru sıra sayıları verilir. En küçük puana 1 değeri, en yüksek puana ise bu sıranın en büyük değeri verilir. Bu analizde iki gruba ait puanların sıra sayılarının toplamları dikkate alınır. Elde edilen sıra toplamları, grup büyüklüklerine bölünür ve grupların sıra ortalamaları bulunur. Mann Whitney U testi, puanların normallik varsayımının karşılanmadığı durumlarda ilişkisiz t-testinin alternatifi olarak kullanılabilmektedir (Büyüköztürk, 2002). 1987' de yapılan bir araştırmada t-testinin sayıltıları çiğnense dahi, Mann Whitney U testinin null hipotezlerini, iki örneklem grubundaki örneklem sayıları farklı ve az olduğunda ve örneklemin varyansları eşit olmadığında etkili sonuçlar verdiği belirtilmiştir (Balcı, 2004) .
b) İşaret Testi Bu test bağımlı gruplar arası farklılıkları ölçmeye yönelik olan bağımlı gruplar için t-testinin non- parametrik karşılığıdır. Sıralı işaret testi ile, iki değişkenin dağılımları aynı olduğunun kabul edildiği hipotezler test edilir. Bu test için veri dağılımının nasıl olmasına ilişkin bir şart yoktur. İşaret testinin hesaplanmasında, iki gruba ait puanların farkları alınır ve bu farklılıklara göre grupların büyük veya küçük olanlarının sayısı belirlenir. Bu nedenle gruplar arasındaki farklılığın belirlenmesinde yalnızca farkın yönü ve büyüklüğü dikkate alınmaktadır (Altunışık ve ark., 2002).
c) Wilcoxon Sıralı İşaret Testi Birbiriyle ilişkili iki örneklem puanlarının dağılımlarının anlamlı bir farklılık gösterip göstermediğini test etmek için kullanılan analizdir. Bu test, bağımlı gruplar için t-testinin parametrik olmayan alternatifidir (Balcı, 2004). d) Wald-WoIfovitz Sıra Testi Bu test, veri dizisindeki tesadüfiliği ölçen bir analizdir. Bu analizle, verilen bir dizi gözlem içinde bir verinin daha sonraki gözlemleri etkileyip etkilemediğini incelemek amaçlanır. Eğer bir etkileme meydana gelmemiş ise gözlemlerin sıralanmasının tesadüfi olduğuna karar verilir. Örneğin, üzerinde 6 rakam bulunan bir zarın on kez atıldığı varsayalım. Bu atışlar sonunda değerlerin 2,3,4,4,4,2,2,2,5,1 olduğunu kabul edersek, burada 2- 3-4,4,4-2,2,2-5-1 (renklere dikkat) olmak üzere toplam altı akışın olduğu görülmektedir. Çok fazla sayıda veya çok az sayıda değişimler olduğunda, bu dizilişte sayıların etkili olduğu varsayılabilir. Bu analizle, sayılardaki bu dizilişlere bağlı olarak bir z değeri hesaplanır ve sayıların dizilişinin tesadüfi mi yoksa belirli kurallara göre mi olduğu konusunda bilgi edinilir.
e) Kolmogorov - Smirnov ( K-S ) Testi Kolmogorov-Simirnov testi, Kolmogorov tarafından 1933 yılında geliştirilmiştir. Bu çalışmada Kolmogorov, tek örnek için uyum iyiliği testini önermiştir. 1939 yılında ise bir Rus matematikçisi olan Simirnov tarafından iki bağımsız örnek için uyum iyiliği testi geliştirilmiştir. Kolmogorov ve Simirnov testi benzerlik nedeniyle, uygulamada, Kolmogorov–Simirnov uyum iyiliği testleri olarak bilinmektedir (Bircan, Karagöz & Kasapoğlu, 2003). K-S testinde, kay-kare testinde olduğu gibi belli bir önem derecesinde örnek değerlerinin dağılımının test öncesi saptanan belirli bir dağılıma uyup uymadığının karşılaştırılması yapılır. Böylece parametrik tekniklerin kullanımıyla ilgili önemli varsayımlardan biri de (uygunluk testi) test edilmiş olur. Eğer tek bir örneklem verisi varsa burada verilerin belli bir dağılıma uyup uymadığı test edilirken, iki örneklem verisi olduğunda bu iki örneklemin aynı dağılımdan gelip gelmediği test edilir.
f) Tek-grup Ki-Kare Testi Ki-kare dağılımı oldukça yaygın olarak ve bir çok amaç için kullanılan bir dağılımdır. Çoğu araştırmada farklı kategorilere giren deneklerin, nesnelerin veya cevapların sayısı ile ilgilenilir. Meselâ, bir grup insan bir anketin sorularına verdikleri cevaplara göre sınıflandırılabilirler. Araştırmacı belli bir tip cevabın diğerlerine kıyasla daha sık ortaya çıkıp çıkmadığını belirlemek isteyebilir. Bu gibi durumlarda ve özellikle de sayımla belirlenen kalitatif özelliklerle ilgili testlerde daha çok ki-kare testi kullanılır (Bircan, Karagöz & Kasapoğlu, 2003).. Ki-kare analizi için tek şart, verinin tesadüfi olarak toplanmış olmasıdır. Test istatistiğinin hesaplanmasında ki-kare formülü kullanılmaktadır. Hesaplanan ki-kare değerinin anlamlılık düzeyine göre gözlemlenen frekans dağılımının beklenenden farklı olup olmadığı yorumlanmaktadır. Anlamlılık düzeyi 0.05'in altına indiğinde verinin dağılımının beklenenden farklı olduğuna karar verilir. Bu test yardımıyla bir örneklemden toplanan verilerin normal dağılım sergileyip sergilemediğini incelemek mümkündür.
f) McNemar testi Mc Nemar testi, iki gruba ayrılan bağımsız değişkenlerin bağımlı değişken yönünden farklılık olup olmadığının test edildiği iki örneklemli ki-kare testidir. Bu testle, bir grup ölçümde elde edilen iki gruplu verilerin bir süre sonra tekrar ölçülerek bu iki sonucun karşılaştırılmasına dayanır. Bu karşılaştırmada iki ölçümde verilen cevaplar arasında tutarlılık olup olmadığı, değişme meydana gelip gelmediği, görüşlerde test öncesi ve sonrası değişimlerin belirli bir güven aralığında anlamlılık düzeyi test edilir. Mc Nemar Testi sınıflamalı veya sıralamalı ölçeklerle toplanan eşleştirilmiş iki gruplu verilerin karşılaştırılmasında kullanılır. g) Cochran Q Testi Bir grubun bağımlı değişkeni için belirlenen iki yüzde arasındaki farkın önemlilik testi niteliksel bir değişken yönünden farklılık olup olmadığının tespit edilmesinde kullanılır. Toplam gözlem sayısının 30’un üzerinde olduğu durumlarda aynı gruptan iki farkı zamanda toplanan veriler için iki yüzdelik dilim arasındaki farkın belirlenmesinde bu testin kullanılması daha uygundur. Bağımlı gruplarda ki-kare testinin, gözlem sayısının az olduğu durumlarda kullanılması tavsiye edilmektedir. Mc Nemar testi iki grup için Cochran Q testi ise ikiden çok grup için kullanılmaktadır.
h) Friedman Testi Friedman testi, birbiri ile ilişkili iki yada daha fazla değişkene ait dağılımların karşılaştırılarak dağılımlar arasında anlamlı bir fark olup olmadığını test etmek amacı ile kullanılır. Veriler, tekrarlanan ölçümlerden oluşan üç veya daha fazla örneklemden toplanmış ise, benzer grupları test etmek için Kruskal-Wallis testi kullanılamaz. Diğer yandan veriler normal dağılımdan uzak ise denk grup ortalamalarını test etmek için tek yönlü varyans analizi de uygulanamaz. Bu amaçla Friedman testi kullanılabilir ve bu test de Kruskal-Wallis testi gibi verilerin dizi içindeki sıralarına dayanır (Akgül & Çevik, 2003). Friedman testinin kullanılması için bağımlı değişkenlerde aranan özellikler şunlardır; - Random örneklemden toplanmalıdır. - Veriler sayısal olmalıdır. - Veriler sıralama, eşit aralıklı veya oranlı ölçekle toplanmış olmalıdır.
i) İki Gruplu Wald-WaIfovitz Testi Bu test, iki farklı gruba ait örneklerin aynı dağılıma sahip gruplardan gelip gelmediğini belirlemek amacıyla kullanılmaktadır. j) İki Grup Kolmogorov-Simirnov testi Ki- kare testinin uygulanmasında beklenen frekansların sayısının 5'den büyük olması şartı vardır. Kolmogorov- Simirnov testinin bu şartı olmadığından uygulanması daha kolaydır. Ki-Kare testinde beklenen frekansların 5'ten büyük olmasını sağlamak için örneklem sayısının fazla olması veya grupları birleştirmek gerekir. Bu durum büyük ölçüde bilgi kaybına neden olmaktadır. Oysa Kolmogorov- Simirnov testinde beklenen frekanslar için alt limit yoktur (Kartal, 1998).
k) Kruskal-Wallis testi Bu teknik, birbirinden bağımsız iki ya da daha çok örneklem ortalamasının birbirinden anlamlı düzeyde farklılık gösterip göstermediğini belirlemek için kullanılır. Parametrik testlerden tek yönlü varyans (One-Way ANOVA) analizinin karşılığıdır. Analizde ikiden fazla örneklem grubunun bir bağımlı değişkene ilişkin puanları karşılaştırılır. Bu testi uygulamak için, bağımlı değişkenin en az aralık ölçeği ile toplanmış olması gereklidir. Araştırmada toplanan veri sayısal olarak uygun bir değişken olsa bile denek sayısı yeterli değilse veya denek sayısı yeterli olduğu halde veri parametrik varsayımları yerine getiremiyorsa varyans analizi yerine Kruskal Wallis analizinin kullanılması gerekir.
2. İlişkileri İncelemeye Yönelik Analiz teknikleri a) Ki-Kare testi Ki-Kare testi 1900'lü yıllarda Pearson tarafından ortaya atılmıştır (Aytaç, 1999). Ki-Kare dağılımı oldukça yaygın olarak ve bir çok amaç için kullanılan bir dağılımdır. Bu analiz, genellikle çeşitli kategorilere giren deneklerin, nesnelerin veya cevapların sayısını temel alır. Ki-kare testi gözlenen frekanslarla beklenen frekanslar arasındaki farkın anlamlı olup olmadığı bilgisine göre yapılır. Ki-kare testi, kategorilere ayrılabilen verilerin puanları arasında anlamlı farklılık olup olmadığını belirlemenin yanında kategorik veriler arasında bir ilişki olup olmadığını ve ilişkinin düzeyini test etmede kullanılabilmektedir. Ki- kare testinin kullanılabilmesi için verilerin toplandığı grupların varyanslarının eşit olması gerekir. Ayrıca bu testi uygulamak için verilerin tesadüfi örneklemden toplanmış olması gerekir.
b) Korelasyon Analizi: Korelasyon analizi, en az eşit aralıklı ölçekle toplanmış iki değişken arasındaki ilişkinin yönünü veya gücünü belirlemeye yönelik ileri bir analiz tekniğidir. Bu testin doğru sonuçlar verebilmesi için verinin nicel özellikler taşıması gereklidir. Kolerasyon analizinde ölçülmeye çalışılan ilişki , değişkenler arasındaki ilişkinin ne ölçüde doğrusal olduğu ile ilgilidir. Değişkenler arasındaki ilişki doğrusal olmadığında ilişkinin nasıl olduğu kolerasyon analiz ile tespit edilemez. Bu nedenle korelasyon analizi varolan ilişkinin sadece doğrusal olan boyutunu ortaya çıkarmak amacı ile kullanılır. Kolerasyon analizinde hesaplanan kolerasyon katsayısı r ile gösterilir ve bu katsayı -1 ile +1 arası değerler alır.
İki değişken arasında ilişkinin hiç olmadığı veya düşük olduğu durumda korelasyon katsayısı 0, yüksek düzeyli ve pozitif bir ilişkin olduğu durumlarda +1, yüksek düzeyli ve negatif bir ilişkin olduğu durumlarda -1 değerini alır. Hesaplanan korelasyon katsayısının yorumu, tam değerler (0, +1 ve –1) için kolaydır. Fakat ara değerler için yorum yapmak zor olabilmektedir. Ara değerler yorumlanacaksa, örneklem sayısı (n) oldukça önemlidir. Örneklemin büyük olduğu veri dizilerinde korelasyon katsayısı 0.25 hesaplansa bile anlamlı ilişki görülebilir. Fakat örneklem az sayıda (10-20 kişi) olduğunda, korelasyon katsayısının 0.70 değerinin üstünde olması tavsiye edilmektedir. Örneklem sayısı normal olduğunda ise 0 ile 0.49 arasında korelasyon zayıf, 0.50 ile 0.74 arasında orta düzeyde, 0.75 ile 1.00 arasında ise kuvvetli ilişki olduğu ifade edilmektedir.
c) Regresyon Analizi Regresyon analizi, bir bağımlı değişken ile bir veya daha fazla sayıdaki bağımsız değişken arasındaki bağımlılık ilişkisini incelemek amacıyla kullanılan bir istatistiksel analiz yöntemidir (Altunışık ve ark., 2002) Regresyon analizi ile bağımlı ve bağımsız değişkenler arasındaki doğrusal ilişkiyi ortaya çıkaracak olan bir doğrunun formülü çıkarılır. Bu doğrunun hesaplanmasında en fazla en küçük kareler yöntemi kullanılmaktadır. Regrasyon analizinin kullanılmasının şartları; Her X değeri için birden fazla Y değeri vardır. Bu Y değerleri normal dağılım özelliğine sahiptir. Bu Y değerlerinin ortalamaları her zaman doğrusal regresyon çizgileri üzerinde yer alır Bu dağılımların standart sapma değerleri birbirine eşittir. Y değerleri istatistiksel olarak birbiriyle ilişkili değildir.
i) Tek Değişkenli Regresyon Analizi: Tek değişkenli regresyon analizi bir bağımlı değişken ve bir bağımsız değişken arasındaki ilişkiyi inceleyen analiz tekniğidir. Bu analiz ile bağımlı ve bağımsız değişkenler arasındaki doğrusal ilişkiyi temsil eden bir doğrunun denklemi belirtilmektedir. Regresyon analizinde değişkenler arasında doğrusal ilişki olup olmadığı incelenir. Bu analize göre tek değişkenli bir regresyon analizi, Yi= a +bx +e genel formülüyle ifade edilir. Burada a ve b saylan regresyon katsayılarını, x bağımsız değişkeni Yi bağımlı değişkeni, e ise hatayı temsil etmektedir. (Altunışık ve ark., 2002). ii) Çok Değişkenli Regresyon Analizi : Bir bağımlı değişkenle iki veya daha fazla bağımsız değişken arasındaki ilişkiyi ortaya çıkarmada kullanılan korelasyonel bir istatistiki tekniktir. Çoklu regresyon analizi, sebep-sonuç ilişkilerinde ve deneysel araştırma verilerinin analizinde kullanılabilmektedir. Ayrıca sınıfiamalı, sıralamalı ve eşit aralık ölçeklerle toplanan verilerin çözümlenmesinde kullanılabilmektedir. Bu tekniğin amacı, hangi bağımsız değişkenlerin, bağımlı değişkeni en iyi açıklamak üzere birleştirilebilir olduğuna karar vermektir (Balcı, 2004)