İçeriğe atla

F-testi

F-testi istatistik bilimi içinde bir sıra değişik problemlerde kullanılan parameterik çıkarımsal sınama yöntemidir. F-testi sıfır hipotezine göre gerçekte bir F-dağılımı gösteren sınama istatistiği bulunduğu kabul edilen hallerde, herhangi bir istatistiksel sınama yapma şeklidir. Bu çeşit bir istatistiksel sınama önce Ronald Fisher tarafından 1920'li yıllarda tek yönlü varyans analizi için ortaya atılıp kullanılmış ve sonradan diğer şekillerde F-dağılım kullanan sınamalar da ortaya atılınca, bu çeşit sınamalara genel isim olarak F-testi adı verilmesi Ronald Fisher anısına George W. Snecedor tarafından teklif edilip, istatistikçiler tarafından F-testi bir genel isim olarak kabul edilmiştir.

F-testinin en çok kullanıldığı sorunlar ve haller

F-testi birçok değişik parametrik çıkarımsal istatistik analizi için kullanılmaktadır. Ama elementer istatistiğe girişte fazla derin konulara girmeden f-testi şu değişik çıkarımsal analiz problem tiplerini incelemek için kullanılır:

  1. . "İki anakütle için varyans eşitliği problemi": Normal dağılım gösterdiği kabul edilen iki anakütlenin varyanslarının oranının bire (1e) eşit olup olmadığının sınanması. Anakütle varyans oranı bir (1) ise, bu test istatistiği olur ve bunun F-dağılımı olduğu gösterilmiştir.[1] Yani bu sınanma iki anakütlenin karşılaştırma problemlerinde iki anakütle varyans eşitliği sınamasıdır.
  1. . "Çoklu karşılaştırma problemi": Tek yönlü varyans analizi probleminde bir normal dağılım gösteren kantitatif değişken ve bir de buna doğrusal ilişkili etki yapan kategorik değişken vardır. Fisher bu testi deneyim de kullandığı için etki yapan kategorik değikene sağlatım değişkeni ismini vermiştir.[2] Kategorik sağlatım değişkeninin değişik kategori seviyeleri kantitatif değişken anakütlesini kategori gruplarına ayırır. Eğer kategorik değişkenin kantitatif değişkene doğrusal etkisi varsa, kategori grup ortalamaları değişiktir; yoksa yani kategori grup ortalamaları birbirine eşitse, kategorik değişkenin kantitatif değişkene etkisi yoktur. Tek bir anakütlenin içinde bulunan ikiden fazla kategorik grubun grup ortalamalarının hepsinin birbirine eşit olup olmadığı veya grup ortalamalarının birbirine eşitliği ve eşitsizliği, çoklu karşılaştırma olarak anılır ve F-testi ile sınanır.
  1. . "Doğrusal regresayon katsayılar kestirimlerinin genel anlamlığı problemi": Doğrusal regresyon modelinin en-küçük-kareler yöntemi ile yapılan katsayılar kestirimlerinden sonra, bu kestirim katsayılarının sıfıra eşit olmadıkları (ve böylece birbirine eşit olup olmadıkları) "F-testi" ile sinanir. Eğer "F-testi" sonucu katsayıların sıfıra eşit olduğu hipotezi rededilemezse hesaplanan kestirim değerleri anlamsızdır. Böylece F-testi eldeki verileri kullanarak elde edilen doğrusal regresyon katasayılar kestiriminin anakütle doğrusal modeline genel olarak uyup uymadığını sınamak için kullanılır. Bu tip F-testi R2 "çokluluk korelasyon katsayı"nın çok benzeridir.

İki anakütle varyansının eşitliği sınaması

X1, ..., Xn n gözlemli bir örneklem verileri ve Y1, ..., Ym m gözlemli diğer bir örneklem verileri olsun ve bu iki örneklemin her birinin ve normal dağılım gösterdiği kabul edilsin.

Bu iki anakütlenin varyanslarının (yahut anakitle standart sapmalarının) birbirine eşit olup olmadığı incelenen problemdir.

İki örneklem için örneklem ortalamaları

ve örneklem varyansları

formülleri ile bulunur.

"F-testi" için sıfır hipotez

H0 : veyahut varyanslar eşit olduğu varasayıldığı için olur.


Bu halde sınama için birbirine eşit iki anakütlenin varyans eşitliği sıfır hipoteze uyan test-istatistiği F yani

(n-1) ve (m-1) serbestlik derecesi gösteren F-dağılımı gösterir.

Sınamayı yapmak için once F-değeri hesaplanır. Sonra

  • ya (n-1) ve (m-1) serbestlik decereli F-dağılımı için p-değeri bulunur ve bu 0,01 veya 0,05den küçükse H0 rededilir.
  • ya da α=0,01 veya α=0,05 anlam düzeyinde (n-1) ve (m-1) serbestlik decereli F-dağılımı sınır değeri bulunur. Hesaplanan F-değeri bu sınır dışında ise H0 rededilir.

F-testi iki örneklem verisinin de normal dağılım gösteren anakütlelerden gelmesi varsayımına dayanmaktadır. Eğer verilerin normal dağılımdan ayrıldığı bilinmekte ise, test istatistiğinin sağlamlığı (robustness) incelenmesi gerekir. Yapılan araştırmalarda F-istatistiğinin normalden ayrılma halinde sağlamlığının çok düşük olduğu bulunmuştur.[3] Bu nedenle anakütle varyans eşitliği hipotezini sınayan daha yeni olarak ortaya çıkartılan Levene testi, Bartlett testi veya Bruce-Forsyth testinin kullanılması tavsiye edilmektedir.

Tek yönlü varyans analizi çoklu karşılaştırma problemi

Açıklama

Toplam sapmanın parçalarının karşılaştırılması için F-testi uygulanır. Tek yönlü veya tek faktörlü varyans analizi için istatistik anlamlılığın sınanması, F-test istatistiği olan şu

burada:
, I = sağlatımlar sayısı
ve
, nT = toplam gözlem eleman sayısı

ifade ile I-1 ve nT serbestlik derecelerinde F-dağılımı ifadesini karşılaştırmak suretiyle gerçekleştirilir.

Sayısal örnek

Doğrusal regresyon katsayı kestirimlerini genel olarak anlamlı olup olmaması sınaması

Diğer çeşit F-testleri

Dipnotlar

  1. ^ Eğer bir oran bire eşitse oranın pay ve paydası birbirine eşittir.
  2. ^ Bir sağlatım değişkeni için iki kategori tatbik edilme (ilac verilme) veya tatbik edilmeme (ilaç verilmeme) olmakta ve çoklu kategori halinde ise verilen değişik dozlar değişik kategoriler olmaktadır.
  3. ^ Markowski, Carol A (1990). "Conditions for the Effectiveness of a Preliminary Test of Variance". The American Statistician. 44 (4). ss. 322-326. doi:10.2307/2684360. 3 Mart 2016 tarihinde kaynağından arşivlendi. Erişim tarihi: 20 Mart 2010. 

Ayrıca bakınız

Dış bağlantılar

İlgili Araştırma Makaleleri

<span class="mw-page-title-main">Student'in t dağılımı</span>

Olasılık kuramı ve istatistik bilim dallarında t-dağılımı ya da Student'in t dağılımı genel olarak örneklem sayısı veya sayıları küçük ise ve anakütle normal dağılım gösterdiği varsayılırsa çıkartımsal istatistik uygulaması için çok kullanılan bir sürekli olasılık dağılımıdır. Çok popüler olarak tek bir anakütle ortalaması için güven aralığı veya hipotez sınaması ve iki anakütle ortalamasının arasındaki fark için güven aralığı veya hipotez sınamasında, yani çıkarımsal istatistik analizlerde, uygulama görmektedir.

Olasılık kuramı ve istatistik bilim dallarında varyans bir rassal değişken, bir olasılık dağılımı veya örneklem için istatistiksel yayılımın, mümkün bütün değerlerin beklenen değer veya ortalamadan uzaklıklarının karelerinin ortalaması şeklinde bulunan bir ölçüdür. Ortalama bir dağılımın merkezsel konum noktasını bulmaya çalışırken, varyans değerlerin ne ölçekte veya ne derecede yaygın olduklarını tanımlamayı hedef alır. Varyans için ölçülme birimi orijinal değişkenin biriminin karesidir. Varyansın karekökü standart sapma olarak adlandırılır; bunun ölçme birimi orijinal değişkenle aynı birimde olur ve bu nedenle daha kolayca yorumlanabilir.

Regresyon analizi, iki ya da daha çok nicel değişken arasındaki ilişkiyi ölçmek için kullanılan analiz metodudur. Eğer tek bir değişken kullanılarak analiz yapılıyorsa buna tek değişkenli regresyon, birden çok değişken kullanılıyorsa çok değişkenli regresyon analizi olarak isimlendirilir. Regresyon analizi ile değişkenler arasındaki ilişkinin varlığı, eğer ilişki var ise bunun gücü hakkında bilgi edinilebilir. Regresyon terimi için öz Türkçe olarak bağlanım sözcüğü kullanılması teklif edilmiş ise de Türk ekonometriciler arasında bu kullanım yaygın değildir.

Hipotez testi, bir hipotezin doğruluğunun istatistiksel bir güvenilirlik aralığında saptanması için kullanılan yöntem.

Korelasyon, olasılık kuramı ve istatistikte iki rassal değişken arasındaki doğrusal ilişkinin yönünü ve gücünü belirtir. Genel istatistiksel kullanımda korelasyon, bağımsızlık durumundan ne kadar uzaklaşıldığını gösterir.

<span class="mw-page-title-main">Normal dağılım</span> sürekli olasılık dağılım ailesi

Normal dağılım, aynı zamanda Gauss dağılımı veya Gauss tipi dağılım olarak isimlendirilen, birçok alanda pratik uygulaması olan, çok önemli bir sürekli olasılık dağılım ailesidir.

Varyans Analizi istatistik bilim dalında, grup ortalamaları ve bunlara bağlı olan işlemleri analiz etmek için kullanılan bir istatistiksel modeller koleksiyonudur. Varyans Analizi kullanılmaktayken belirlenmiş bir değişkenin gözlemlenen varyansı farklı değişim kaynaklarına dayandırılabilen varyans bileşenine ayrılır. En basit şekliyle varyans analizi birkaç grubun ortalamalarının birbirine eşit mi eşit değil mi olduğunu sınamak için bir çıkarımsal istatistik sınaması olur ve bu sınama iki-grup için yapılan t-test sınamasını çoklu-gruplar için genelleştirir. Eğer, çoklu değişkenli analiz için birbiri arkasından çoklu iki-örneklemli-t-sınaması yapmak istenirse bunun I. tip hata yapma olasılığını artırma sonucu doğurduğu aşikardır. Bu nedenle, üç veya daha fazla sayıda ortalamaların ististiksel anlamlığının sınama ile karşılaştırılması için Varyans Analizleri daha faydalı olacağı gerçeği ortaya çıkmaktadır.

<span class="mw-page-title-main">Standart sapma</span> İstatistikte bir varyasyon ölçüsü

Standart sapma, Olasılık kuramı ve istatistik bilim dallarında, bir anakütle, bir örneklem, bir olasılık dağılımı veya bir rassal değişken, veri değerlerinin yayılımının özetlenmesi için kullanılan bir ölçüdür. Matematik notasyonunda genel olarak, bir anakütle veya bir rassal değişken veya bir olasılık dağılımı için standart sapma σ ile ifade edilir; örneklem verileri için standart sapma için ise s veya s'

Merkezi limit teoremi büyük bir sayıda olan bağımsız ve aynı dağılım gösteren rassal değişkenlerin aritmetik ortalamasının, yaklaşık olarak normal dağılım göstereceğini ifade eden bir teoremdir. Matematiksel bir ifadeyle, bir merkezi limit teoremi olasılık kuramı içinde bulunan bir zayıf yakınsama sonucu setidir. Bunların hepsi, birçok bağımsız aynı dağılım gösteren rassal değişkenlerin herhangi bir toplam değerinin limitte belirli bir "çekim gücü gösteren dağılıma" göre dağılım gösterme eğiliminde olduğu gerçeğini önerir.

<span class="mw-page-title-main">Çarpıklık</span>

Çarpıklık olasılık kuramı ve istatistik bilim dallarında bir reel-değerli rassal değişkenin olasılık dağılımının simetrik olamayışının ölçülmesidir.

Olasılık kuramı ve bir dereceye kadar istatistik bilim dallarında basıklık kavramı 1905da K. Pearson tarafından ilk defa açıklanmıştır. Basıklık kavramı bir reel değerli rassal değişken için olasılık dağılımının, grafik gösteriminden tanımlanarak ortaya çıkarılan bir kavram olan, sivriliği veya basıklığı özelliğinin ölçümüdür. Basıklık kavramının ayrıntıları olasılık kuramı içinde geliştirilmiştir. Betimsel istatistik için bir veri setinin basıklık karakteri pek dikkate alınmayan bir özellik olarak görülmektedir. Buna bir neden parametrik çıkarımsal istatistik alanında basıklık hakkında hemen hemen hiçbir kestirim veya sınama bulunmamasındandır ve pratik istatistik kullanımda basıklık pek önemsiz bir karakter olarak görülmektedir. Belki de basıklık ölçüsünün elle hesaplanmasının hemen hemen imkânsızlığı buna bir neden olmuştur.

İstatistik bilim dalında, Jarque-Bera sınaması normal dağılımdan ayrılmayı ölçmek için kullanılan bir uygulama iyiliği ölçüsüdür. İlk defa bu sınamayi ortaya atan ekonometrici A.K.Bera ve C.M.Jarque adları ile anılmaktadır.

İstatistik bilim dalında Kruskal-Wallis sıralamalı tek yönlü varyans analizi, bağımsız gruplar arası anakütle medyanlarının eşitliğini sınamak amacı ile kullanılan bir parametrik olmayan istatistik sınamasıdır. Adı bu yöntemi ilk defa ortaya koyan William Kruskal ve W. Allen Wallis atıfla konmuştur. Matematiksel olarak ayrı olmakla beraber, tek yönlü varyans analizinin bir değişik şekli olarak görülebilir. Diğer bir görüşe göre Mann-Whitney U sınamasının 3 veya daha çoklu gruplara genişletilmesidir.

İstatistik bilim dalı içinde Friedman sıralamalı iki yönlü varyans analizi sonradan çok tanınmış bir iktisatçı olan Amerikan Milton Friedman tarafından ortaya atılan bir parametrik olmayan istatistik sınamasıdır.

Mann-Whitney U testi niceliksel ölçekli gözlemleri verilen iki örneklemin aynı dağılımdan gelip gelmediğini incelemek kullanılan bir parametrik olmayan istatistik testdir. Aynı zamanda Wilcoxon sıralama toplamı testi veya Wilcoxon-Mann-Whitney testi) olarak da bilinmektedir. Bu testi ilk defa eşit hacimli iki örneklem verileri için Wilcoxon (1945) ortaya atmıştır. Sonradan, Mann and Whitney (1947) tarafından değişik büyüklükte iki örneklem problemleri analizleri için uygulanıp geliştirilmiştir.

İstatistik bilim dalında ağırlıklı ortalama betimsel istatistik alanında, genellikle örneklem, veri dizisini özetlemek için bir merkezsel konum ölçüsüdür. En çok kullanan ağırlıklı ortalama tipi ağırlıklı aritmetik ortalamadır. Burada genel olarak bir örnekle bu kavram açıklanmaktadır. Değişik özel tipli ağırlıklar alan özel ağırlıklı aritmetik ortalamalar bulunmaktadır. Diğer ağırlıklı ortalamalar ağırlıklı geometrik ortalama ve ağırlıklı harmonik ortalamadir. Ağırlıklı ortalama kavramı ile ilişkili teorik açıklamalar son kısımda ele alınacakdır.

Matematik bilimi içinde moment kavramı fizik bilimi için ortaya çıkartılmış olan moment kavramından geliştirilmiştir. Bir bir reel değişkenin reel-değerli fonksiyon olan f(x)in c değeri etrafında ninci momenti şöyle ifade edilir:

Tek anakütle ortalaması için parametrik hipotez sınaması veya tek-örneklem için sınama veya μ için sınama, bir rastgele örneklem ortalaması ile bu örneklemin çekilmiş olduğunu düşündüğümüz anakütlenin μ ile belirtilen "anakütle ortalaması" hakkında bir hipotez değeri belirtilmesinin anlamlı olup olmadığını araştırmamızı sağlayan parametrik hipotez sınamasıdır.

Ki-kare testi veya χ² testi istatistik bilimi içinde bir sıra değişik problemlerde kullanılan bazıları parametrik olmayan sınama ve diğerleri parametrik sınama yöntemidir. Bu çeşit istatistiksel sınamalarda test istatistiği için "örnekleme dağılımı", sıfır hipotez gerçek olursa ki-kare dağılımı gösterir veya sıfır hipotez "asimptotik olarak gerçek" olursa, eğer sıfır hipotez gerçekse ve eğer örnekleme hacmi istenilen kadar yeterli olarak büyük ise bir ki-kare dağılımına çok yakın olarak yaklaşım gösterir.

Pearson ki-kare testi nicel veya nitel değişkenler arasında bağımlılık olup olmadığının, örnek sonuçlarının belirli bir teorik olasılık dağılımına uygun olup olmadığının, iki veya daha fazla örneğin aynı anakütleden gelip gelmediğinin, ikiden fazla anakütle oranının birbirine eşit olup olmadığının ve çeşitli anakütle oranlarının belirli değere eşit olup olmadığının araştırılmasında kullanılır. İstatistik biliminin çıkarımsal istatistik bölümünde ele alınan iki-değişirli parametrik olmayan test analizlerinden olan ve ki-kare dağılımı'nı esas olarak kullanan ki-kare testlerinden en çok kullanılanıdır. İngiliz istatistikçi olan Karl Pearson tarafından 1900'da ortaya çıkartılmıştır.