2. • İstatistik belirli bir gerçek dünya problemi
ile ilgili bilgilerin (datanın) toplanması,
organize edilmesi ve analizi ile ilgili
bilimsel metodlar ve bunlara dayandırılan
geçerli çıkarımlarla ilgilenen bir bilim
dalıdır
3. • Toplanan bilgilerin başkaları tarafından da
anlaşılabilmesi
• Aynı yollarla elde edilmiş başka bilgilerle
karşılaştırılabilmesi zorunluluğu,
• Verilerin belli kurallara göre, tek tek ve
dağılımlar halinde özetlenerek sunulması
zorunluluğunu getirmiştir.
4. • Uygun istatistik yöntemin seçilmesi için
değişkenlerin ölçüm özellikleri iyi
belirlemek gerekir
6. SAYIMLA BELİRLENEN ÖLÇEKLER
(KATEGORİK)
• A.NOMİNAL (isimsel, kalitatif) ölçüm düzeyleri
arasında bir sıralama ya da uzaklık – yakınlık gibi
belirli bir mesafe yoktur
• Placebo grubu “0”,
• 1.tedavi grubu “1”,
• 2.tedavi grubu “2” olarak kodlanabilir
7. Sayımla belirlenen (kategorik) ölçekler
• B. ORDİNAL : Ordinal ölçüm, nominal ölçümün belirli bir
biçimde veya belirli bir kritere göre sıralandırılmasıdır
• Sıralandırma, iyiden kötüye doğru ya da kötüden iyiye doğru
yapılabilir.
• Ordinal bir değişkende, ölçüm düzeyleri arasında bir sıralama
vardır, ancak düzeyler arasındaki uzaklık belli değildir.
Örneğin radyolojik evreleri girdiğimiz “EVRE” adlı değişkene
1,2,3,4 değerleri girilebilir.
8. • Bu değerler belli bir sırayı gösterir. Evre 3, evre
2’ den daha ileri bir evredir; evre 1 en iyi, evre
4 en kötü evredir.
• Ama değişkenler arasındaki uzaklık belli
değildir. Yani, evre 2, evre 1’ den ne kadar
ileriyse, evre 4’ te evre 3’ ten o kadar ileridir
denemez
• Ordinal değişken değerleri yalnızca “<” ve “>”
işlemleri için sayı gibi değerlendirilir; bunlar
dışındaki matematik işlemler uygulanamaz.
9. 2. ÖLÇÜMLE BELİRLENEN
ÖLÇEKLER(SAYISAL)
• Bir değişkenin aldığı değerler, nominal ya da ordinal
değişkenlerde olduğu gibi araştırmacı tarafından belirlenmiş
kodlar değil de gerçek rakamlarsa, o değişkenin sayısal
ölçüm skalasında ölçüldüğü söylenebilir.
• Sayısal ölçümle belirlenen değişkende, değişken düzeyleri
arasında hem sıralama, hem de belirli bir uzaklık vardır.
Sayısal değişken değerlerine, reel sayılara uygulanan her
türlü matematik işlem uygulanabilir.
10. • Sayısal değişkenleri, sınıflayarak ordinal
değişkenlere dönüştürebiliriz.
• Sayısal değişkenleri çok gerektirmedikçe, ordinal
değişkenlere dönüştürmek uygun değildir.
• İstatistik analiz sırasında hataya yol açmaz, ancak
daha az bilgi veren yöntemlerin kullanılmasını
gerektirebilir.
• Bu nedenle çalışmalar sırasında verileri toplarken,
sayısal değişkenleri sınıflandırmadan, gerçek
değerleri ile kaydetmek, daha sonra gerekirse
dönüşüm uygulamak yerinde olur.
11. TANIMLAYICI İSTATİSTİK
• Tanımlayıcı istatistikler verilerin sayısal ya
da grafiksel olarak özetlenmesidir.
Çalışmada veriler toplandıktan sonra,
bunların merkezi eğilimleri, yayılımları,
çarpıklık araştırılır
12. MERKEZİ EĞİLİM ÖLÇÜTLERİ
(verilerin nerede toplandığını gösterir)
• a.Aritmetik Ortalama :
• Değerlerin toplamının denek sayısına
bölünmesiyle elde edilir. Sayısal
değişkenler için merkezi eğilim ölçütüdür.
• Ordinal değişkenler için kullanılamaz.
Aşırı değerlerden etkilenir.
13. • b.Ortanca =Orta değer=Median :
• Küçükten büyüğe ya da büyükten küçüğe
doğru sıralandığında, tam ortadaki deneğin
değeridir. Denek sayısı çiftse, ortadaki iki
deneğin ortalamaları alınır.
• Ordinal veriler için en iyi merkezi dağılım
ölçütüdür. Aşırı değerlerden etkilenmez.
Nominal değerler için uygun değildir.
14. • c.Tepe değeri = Mod :
• Değişkenler içinde en fazla görülen, en çok
tekrarlanan değerdir.
• Tıpta nadir kullanılan bir merkezi eğilim
ölçütüdür.
• Ordinal ve sayısal değişkenlerde kaba bir
merkezi eğilim ölçütü olarak kullanılabilir.
Nominal veriler için uygun bir merkezi
eğilim ölçütüdür.
15. YAYILMA ÖLÇÜTLERİ
• Farklı grupların merkezi eğilim ölçütleri
aynı olduğu halde, gruplar birbirlerinden
çok farklı olabilir. Bu nedenle merkezi
eğilim ölçütleri yanında, yayılma ölçütleri
de çok önemlidir
16. • a.Değer aralığı = Genişlik = Range :
• En basit yaygınlık ölçüsüdür. En küçük ve
en büyük değer arasındaki farktır.
• Örnek büyüklüğü ile artma eğilimi vardır.
Ortalama gibi, uç değerlerden çok etkilenir.
En uçtaki iki değer arasında kalan değerler
hakkında bilgi vermez.
17. • Standart sapma ve varyans : Tüm değerlerin
dağılımı ile bilgi verirler. Tüm değerler
eşitse, her ikisi de sıfıra eşittir.
• Değerler arasında farklar arttıkça standart
sapma (Ss) ve varyans büyür.
• Standart sapma değişken değerlerinin
ortalamanın etrafındaki yayılmasını temsil
eden bir yayılma ölçütüdür. Yani, denekler
arasında ne kadar yaygınlık olduğunu ifade
eder.
• Ss’ nın karesine varyans adı verilir.
18. • Merkezi eğilim ölçütü olarak ortalama
kullanıldığında, yayılma ölçütü olarak da standart
sapma kullanılır.
19. • Normal dağılım gösteren değişken değerleri için
aşağıdaki kurallar geçerlidir :
• 1. Değerlerin % 67’si ortalama ± 1 Ss içindedir.
• 2. Değerlerin % 95’i ortalama ± 2 Ss içindedir.
• 3. Değerlerin % 99.7’si ortalama ± 3 Ss içindedir
20. • Standart hata : Standart sapma, bir
örneklemdeki denek değerlerinin örneklem
ortalamasından aşağı ya da ne kadar
saptığını, yani denek değerlerinin
yayılmasını gösterir.
• Aynı evrenden seçilecek, ya da seçilmesi
mümkün olan aynı büyüklükteki
örneklemlerin ortalamalarının yayılmasına
ortalamanın örneklem dağılımı denir.
• Ortalamanın örneklem dağılımının ölçütü
ortalamanın standart hatası (standard error
of mean = SEM)’ dır.
21. • Çalışmaya alınan örneklemin yayılma
özellikleri verilmek isteniyorsa, doğru olanı
Ss’nın verilmesidir.
• Çünkü, SEM örneklemdeki deneklerin
yayılması ile ilgili olmadığı için,
makaledeki çalışma grubunun
değişkenliğini göstermez.
• Çalışma gruplarındaki ortalamaların
karşılaştırıldığı grafiklerde ise ±2 SEM
kullanılması daha doğrudur
22. • Değişim katsayısı [coefficient of variation
(CV)]: Birimleri farklı olan değişkenlerin
yayılmalarını karşılaştırmak için değişim
katsayıları kullanılır. Değişim katsayısı,
standart sapmanın ortalamaya oranının
yüzde olarak ifadesidir.
23. • d.Çeyrek ve yüzdelikler : Çeyrek ve yüzdelikler
bir aralık olmayıp bir noktayı gösterirler.
• 25’inci yüzdelik birinci çeyrek, 50’inci yüzdelik
ikinci çeyrek (yani ortanca), 75’inci yüzdelik
üçüncü çeyrek olarak adlandırılır.
• 25’inci yüzdelik, gözlemlerin %25’inin bunun
altında ve %75’inin üstünde kaldığı değerdir.
50’ici yüzdelikte değerlerin %50’si bunun altında,
%50’si üzerindedir.
• Değerlerin dağılımı normalse, ortalama – 2 Ss ve
ortalama + 2 Ss, sırasıyla 2.5 ve 97.5 persentil
değerlerine karşılık gelir.
24. – e.Çeyreklerarası aralık : 25 ve 75 persentil
(birinci çeyrek ve üçüncü çeyrek) değerleri
arasındaki farka denir. Yani değerlerin ortada
yer alan %50’ si çeyrekler arası aralıktadır.
25. NORMAL DAĞILIM NEDIR
– İstatistik analiz yapılırken, dağılımın özelliği
çok önemlidir.
– Çünkü farklı dağılım gösteren verilere
uygulanacak tanımlayıcı ve analitik istatistik
yöntemleri de farklıdır.
– Parametrik testlerin uygulanabilmesi için,
dağılımın normal ya da normale yakın olması
gerekir.
26. Normal dağılım,
• Standart sapması 1,
• Frekans eğrisi çan şeklinde olan simetrik
dağılımdır.
• Normal dağılım simetrik olduğu için,
normal dağılım gösteren değişkenlerin
ortalama, ortanca ve modları eşittir
27.
28. • Dağılım şekli ölçütleri : Çarpıklık –1 ve +1
arasında yer alır.
• Normal dağılımın çarpıklık katsayısı
sıfırdır.
• Denekler ortalamadan daha büyük
değerlerde toplanıyorsa, negatif basık ya da
soldan basık,
• Küçük değerlerde toplanıyorsa pozitif basık
ya da sağdan basık dağılımdan söz edilir.
29. Dağılım özelliğinin önemi nedir
• Parametrik testlerin tümünün
uygulanabilmesi için gereken varsayımların
başında verilerin dağılımının normal olması
gelir. Normal dağılımdan gelmeyen
ölçümler kullanıldığında, gerçekte
olduğundan daha küçük bir p değeri ya da
daha dar bir güven aralığı hesaplanır.
• Bu durumda, doğru bir hipotezi reddetme
olasılığı artar. Yani, iki grup arasında fark
olmadığı halde fark varmış gibi sonuç elde
edilebilir
30. • Dağılımın normal olup olmadığı grafik ve
istatistik analiz yöntemleri ile anlaşılır.
• Histogram, dal ve yaprak grafiği ve normal
olasılık grafiği çizilerek dağılımın normal
olup olmadığı hakkında fikir edinilebilir.
31. • Ama bu izlenimin istatistik yöntemlerle de test
edilmesi gerekir. Shapiro-Wilks (n<30) ve
Lilliefors (n>30) testleri bu amaçla sıklıkla
kullanılan testlerdir. Bu testlerde p değeri <0.05
ise dağılımın normal olmadığı sonucuna varılır.
32. • Örneklem büyüklüğü arttıkça,
deneklerin dağılımı ve ortalamanın
örneklem dağılımı normal dağılıma
yaklaşır.
• Genellikle bir örneklemde 30 ya da
daha fazla sayıda denek varsa, evren
normal dağılım göstermiyorsa bile,
ortalamanın örneklem dağılımının
normal olduğu varsayılabilir
33. Verilerin normal dağılmadığı durumlarda iki
işlem yapılabilir :
1. Verilere dönüşüm uygulayarak, onların
normal dağılıma uymalarını sağlamak.
2. Varolan verilere parametrik olmayan bir test
uygulamak
34. KESTİRİM
• Bilimsel çalışmaların amacı, örneklem
değerinden evren değerlerinin kestirilmesidir.
Evren parametrelerinin kestirilmesi için ya
güven aralığı ve sınırları ya da hipotez testleri
kullanılır
35. • Güven aralığı ve güven sınırları : Belirli bir
olasılıkla, bilinmeyen evren değerini içeren
değerler aralığıdır.
• Sıklıkla %95, bazen de %90 ve %99 güven
sınırları kullanılmaktadır.
36. Hipotez testleri :
• Farklılık olmadığının varsayıldığı hipoteze,
yokluk hipotezi, farksızlık hipotezi, sıfır
hipotezi, başlangıç hipotezi adı verilir ve Ho
ile gösterilir.
• H1 ile gösterilen alternatif hipotez adı
verilen hipotez ise, Ho hipotezinin tam
tersidir.
37. P değeri ve yanılma düzeyi :
• Ho hipotezinin reddedilmesi için hesaplanan
olasılığın %5 ya da daha az olması
genellikle kabul edilen sınırdır; yani Ho
hipotezinin doğruluğu için hesaplanan
olasılık %5 ya da daha küçükse, bu
hipotezin kabul edilemeyeceği yargısına
varılır
38. Hipotezin yönü
• Ho hipotezi “iki ortalama arasında fark
vardır” şeklinde ise hipotez iki-yönlü;
• “1.grubun ortalaması 2.grup ortalamasından
büyüktür/küçüktür” şeklinde ise tek-
yönlü’dür.
39. • Parametrik ve nonparametrik testler :
Istatistiksel analiz yapılmadan önce,
verilerin kategorik (nominal, ordinal) ya da
sürekli (aralıklı, oransal) olup olmadığına
bakılmalıdır.
• Kategorik verilerde parametrik olmayan
isatistikler kullanılırken, sürekli verilerde
ise parametrik istatistikler kullanılır
40. Bağımlı iki grup ortalaması için
Student t testi
• deneklerin önce ve sonra değerleri
ortalamaları arasında fark olup olmadığının
test edilmesidir
41. – Wilcoxon işaretli sıra testi : Bu testte bağımlı
iki grubun ortalamaları değil, ortancaları
arasındaki farkın önemli olup olmadığı test
edilir. Yani evren medyan farkı hakkındaki
hipotezi test eder.
– Genel olarak, normal dağılım göstermeyen
değerler için Wilcoxon testi, t testine göre daha
güçlüdür, yani önce ve sonra değerleri arasında
fark varsa, daha doğru olarak saptar. Normal
dağılım gösteren değerler için her iki testin
gücü aynıdır.
42. Bağımsız iki grup
ortalamasının karşılaştırılması
• Bağımsız gruplar denince, her grupta farklı deneklerin yer
aldığı, bir gruptaki bir deneğin aynı zamanda başka
gruplarda da bulunmadığı anlaşılır.
• Student t testi
• Varyansların homojenliği Levene-F testi kullanarak
değerlendirmektedir. P>0.05 ise %5 anlamlılık düzeyinde
“varyanslar eşittir” hipotezi kabul edilir. Böylece deney ve
kontrol gruplarının varyanslarının homojen olduğu kabul
edilir.
• Varyansların homojenliğinin sağlanması, tip II hatasına
karşı araştırmayı korur
43. Bağımsız iki grup
ortalamasının karşılaştırılması
Student t testi varsayımları sağlanamıyorsa
• Mann-Whitney U testi ya da
• Bağımsız iki grupta medyan testi
44. Bağımsız iki grupta medyan testi
• Bağımsız iki grupta medyan testi, iki grubun aynı medyana
sahip evrenlerden geldiği şeklindeki hipotezin test
edilmesinde kullanılır
• Medyan testinin uygulanabilmesi için, verilerin en az
ordinal ölçekle ölçülmesi gerekir.
45. Mann-Whitney U testi
• Dağılımı normal olmayan bağımsız iki grup varsa
• Değerlere dönüşüm uygulandığında
(dönüştürülmüş değerler normal dağılıyorsa ve yine bu
dönüştürülmüş değerlerin varyansı eşitse, t testi
uygulanabilir)
• Bu iki varsayımdan herhangi birinin sağlanamadığı
durumlarda t testinin nonparametrik karşılığı olan Mann-
Whitney U testi kullanılır.
• Bu testte de yapılan, değerlere sıra dönüşümü uygulanması
ve ortalamalar yerine ortancaların karşılaştırılmasıdır
46. İkiden fazla ortalamanın karşılaştırılması
1. Birçok araştırmada ikiden çok grup kullanılır ya da
2. Aynı grupta ikiden çok gözlem ya da ölçüm yapılır
• Ilk durumda ikiden fazla bağımsız grup, ikinci durumda
ikiden fazla bağımlı grup var demektir
47. VARYANS ANALİZİ
• t testi ile tek karşılaştırmalar yerine, bütün gruplar
arasındaki varyansı bir defada dikkate alan analizi yaparak,
gruplar arasındaki farkı incelemek mümkündür.
• Bu test, varyans analizi’ dir (ANalysis Of Variance =
ANOVA)
48. • Varyans analizinde kaç grup olursa olsun tek bir F değeri
ve buna karşılık gelen tek bir p değeri hesaplanır.
• Eğer p<0.05 ise, grup ortalamaları eşit değildir
49. Tek yönlü varyans analizi
• Ikiden çok bağımsız örneklem ortalamasının
karşılaştırılması tek-yönlü varyans analizi ile yapılır
• Tek yönlü varyans analizinde, bir bağımsız ve bir bağımlı
değişkene ihtiyaç vardır.
• Bağımsız değişken nominal seviyede olup, 2 ya da daha
fazla kategorisinin olması gerekir
• Örneğin cinsiyet iki seviyeli bir nominal değişkenken, ırk
ve din gibi değişkenler tanımlanmalarına göre çok seviyeli
olabilir
• Bağımlı değişken ise, sürekli olmalıdır.
50. • “Tek-yönlü” terimi, grupları birbirinden ayıran tek özellik
olduğu, ya da grupların tek değişkenin değerleri ile
ayrıldığı anlamına gelmektedir.
• Örneğin hastalık türü, dört grubu birbirinden ayıran ya da
grupları belirleyen değişkendir.
• Eğer birden çok değişkenle bağımsız gruplar belirlenirse, o
zaman yapılacak teste iki-yönlü ya da “factorial” varyans
analizi adı verilir.
• Örneğin hem “hastalık türü”, hem de “cinsiyet” grupları
arasında ESH düzeylerinin ortalamalarının farklı olup
olmadığı test edilecekse, iki-yönlü varyans analizi
uygulanmalıdır
51. • Varyans analizinin temel koşulları her gruptaki deneklerin
normal dağılım göstermesi, varyansların eşit olması ve
varyansların ortalamadan bağımsız olmasıdır.
• Aksi taktirde, ya dönüşüm uygulayarak koşullar
sağlanmalı, ya da tek yönlü varyans analizinin
nonparametrik karşılığı olan Kruskal-Wallis analizi
uygulanmalıdır.
52. • Eğer varyans analizi ile bulunan p değeri <0.05 ise, ikili
karşılaştırmaların yapılması gerekir.
• Varyans analizi sonrası yapılan çoklu karşılaştırma
yöntemlerine “post hoc” yöntemler adı verilir
• Bu yöntemler ile hangi grup ya da grupların ortalamasının
diğerlerinden farklı olduğu saptanır
• Çeşitli “post hoc” çoklu karşılaştırma yöntemler vardır en
çok tercih edilenler Tukey’s HSD ve Scheffe testleridir.
53. Tekrarlı ölçümler varyans analizi
• Tek bir denek grubunda ikiden çok kez ölçülen verilerin
ortalaması tekrarlı ölçümler varyans analizi adı verilen
özel bir varyans analizi yöntemi ile karşılaştırılır.
• Tekrarlı ölçümlerde iki faktörlü varyans analizi İki
bağımsız değişken söz konusu olduğunda uygulanmalıdır
54. Nonparametrik varyans analizi
Kruskal-wallis tek yönlü varyans analizi
• Tek yönlü varyans analizinin nonparametrik karşılığıdır.
Diğer nonparametrik yöntemlerde olduğu gibi burada da
grupların ortalamaları değil, ortancaları karşılaştırılır
• Eğer Kruskal-Wallis ile ortancaların eşit olmadığı
saptanırsa (yani p<0.05 bulunursa) post hoc çoklu
karşılaştırma yöntemi olarak, yanılma düzeyini aşağı
çekerek, Bonferroni düzeltmeli Mann-Whitney U testi
uygulanır
55. • Iki-yönlü varyans analizinin genel kabul görmüş
nonparametrik karşılığı yoktur. Bu nedenle varsayımlar
sağlanmadığı taktirde, ancak verilere dönüşüm
uygulayarak iki-yönlü varyans analizi yapılabilir
56. Friedman iki-yönlü varyans analizi :
• Tekrarlı ölçümler varyans analizinin nonparametrik
karşılığıdır.
• Eğer Friedman testi ile ortancaların eşit olmadığı
saptanırsa (yani p<0.05 bulunursa) post hoc çoklu
karşılaştırma yöntemi olarak, yanılma düzeyini aşağı
çekerek, Bonferroni düzeltmeli Wilcoxon işaretli sıra testi
ya da işaret testi uygulanır