İçeriğe atla

Kovaryans matrisi

Merkezi noktası (1, 3) olan ve yaklaşık (0,878,0,778) yönde standart sapma değeri 3 ve ona dikey ortogonal yönde 1 olan bir çokdeğişirli normal dağılım. x ve y ortakca değiştikleri için, x ve y kısım varyansları bu dağılımı tam olarak tanımlamamaktadır ve tüm tanımlama için (2 x 2) dereceli bir kovaryans matrisi verilmesi gerekir. Grafikteki okların yönleri bu kovaryans matrisinin eigenvektörlerini göstermektedir. (Bunlar karşıt eigendeğerlerin kare kökleri ile yeniden boyutlandırılmışlardır.)

İstatistik'te, kovaryans matrisi (veya varyans-kovaryans matrisi veya varyans matrisi), rassal vektörlerin elemanları arasındaki kovaryansları içeren matristir. Kovaryans matrisi, skaler-değerli rassal değişkenler için var olan varyans kavramının çok boyutlu durumlara genelleştirilmesidir.

Tanımlama

Eğer şu sütun vektörü içine

giren değişkenlerin her biri sonlu varyansı olan rassal değişken iseler, o halde (ij) elemanı bir kovaryans olan matris Σ kovaryans matrisi olur:

burada

X vektöründeki iinci değişkenin beklenen değeri olur. Diğer bir deyişle, elimizde şu vardır:

Bu matrisin tersi' olan matris, yani , ters kovaryans matrisi ya da konsantrasyon matrisi veya kesinlik matrisi olarak anılır.[1] Bu "ters kovaryans matrisi"nın elemanları kısmî korelasyonlar veya kısmî varyanslara yapılan atıflarla açıklanabilirler.

Kulanılan notasyonlarda ve isimlendirmede çatışmalar

İstatistik literatüründe bu kavram için isimlendirme tek-örnek olarak degil, değişik şekillerde yapılmaktadır:

  • Amerikan olasılık teoricisi William Feller'in takipcileri bu matrise X rassal vektörünün Varyans matrisi adını verirler; çünkü bu tek-boyutlu varyans kavramının doğal olarak daha yüksek boyutlarda genelleştirilmesidir.
  • Diğerleri bu matris covaryans matris olarak isimlendirirler, cunku bu matrisinin skaler parcalarinin arasinda olan kovaryanslarin matrisidir.

Böylece

Ama iki vektör arasındaki karşılıklı-kovaryans için notasyon sadece tek bir standarta uyar:

Özel var notasyonu William Feller'in An Introduction to Probability Theory and Its Applications, adlı eserinde kullanılır; ama her iki alternatif notasyon da standart olarak kullanılmaktadır; bu iki değişik başta açılanıp öğrenilmekte ve anlayıp kullananlar için bir anlam karışıklığına neden olmamaktadır.

matrisi ise çok zaman varyans-kovaryans matris olarak anılır; çünkü bu matrisin diagonal elemanları varyanslardır.

Özellikleri

X p-boyutlu bir rassal degisken ve Y q-boyutlu bir rassal degisken için ve , olarak verilmisse, su temel ozellikler bulunmaktadır:

  1. bir positif semi-definit matrisdir.
  2. Eger p = q ise o zaman
  3. Eğer ve birbirlerinden bağımsız iseler, o halde

burada ve rassal p×1 derecede vektör, rassal q×1 derecede vektör, ise q×1 derecede vektör, ve (q×p) dereceli matrislerdir.

Bu kovaryans matrisi değişik alanlarda uygulamaları bulunan bir matematik araçtır. Bu matrisden bir transformayon matrisi çıkartılabilir ve bu veride bulunan bütün korelasyonların elimine edilebilmesini mümkun kılar. Bu transformasyon matrisi bularak tüm korelasyonları elimine etme analizine temel bileşenler ("principal components) analizi adı verilir.

Bir doğrusal operatör olarak

Hangi matrisler kovaryans matrisleridir?

Uygun bir kovaryans matrisi nasıl bulunur

Bazı uygulamalarda (örneğin sadece kısmen gözumlenen verilerden veri modeli kurmada) bir verilmiş belirli (gözümlenen kovaryanslardan oluşmuş) bir simetrik matrise "en yakın" kovaryans matrisi bulmak istenebilir. 2002 yılında, Higham [2] "ağırlıklı Frobenius normu" kullanarak en yakınlılık kavramını formalize etmiştir ve böylece en yakın kovaryans matrisi bulmak için gereken yöntemi vermistir.

Kompleks rassal vektorler

Kestirim

Bir çoklu değişirli normal dağılım için kovaryans matrisinin maksimum-olabilirlilik kestrimcisininin elde edilmesi, belki çok zeki bir ince tranformasyon ile kolayca yapılabilir. Bakın kovaryans matrisleri kestimi

Olasılık yoğunluk fonksiyonu

Bir tane korelasyonlu rassal değişken dizisi için olasılık yoğunluk fonksiyonu, n dereceli bir Gauss-tipi vektor olan birlesik olasılık fonksiyonu olup Maksimum olabilirlik maddesinde aciklanmaktadir.

Dipnotlar

  1. ^ Wasserman, Larry (2004), All of Statistics: A Concise Course in Statistical Inference (İngilizce)
  2. ^ Higham, Nicholas J. ""Computing the nearest correlation matrix—a problem from finance" IMA Journal of Numerical Analysis, Cilt 22 No.3 say.329

Ayrıca bakınız

  • Kovaryans matrisleri kestrimi
  • Çok değişirli istatistik
  • Örneklem kovaryans matrisi
  • Gramian matrisi
  • eigendeğer dekompozisyon

Dış bağlantılar

İlgili Araştırma Makaleleri

Adını İngiliz fizikçi Paul Dirac'tan alan spinli ve göreli kuantum mekaniği denklemi,

Olasılık kuramı ve istatistik bilim dallarında varyans bir rassal değişken, bir olasılık dağılımı veya örneklem için istatistiksel yayılımın, mümkün bütün değerlerin beklenen değer veya ortalamadan uzaklıklarının karelerinin ortalaması şeklinde bulunan bir ölçüdür. Ortalama bir dağılımın merkezsel konum noktasını bulmaya çalışırken, varyans değerlerin ne ölçekte veya ne derecede yaygın olduklarını tanımlamayı hedef alır. Varyans için ölçülme birimi orijinal değişkenin biriminin karesidir. Varyansın karekökü standart sapma olarak adlandırılır; bunun ölçme birimi orijinal değişkenle aynı birimde olur ve bu nedenle daha kolayca yorumlanabilir.

<span class="mw-page-title-main">Kovaryans</span>

Olasılık teorisi ve istatistikte, kovaryans iki değişkenin birlikte ne kadar değiştiklerinin ölçüsüdür. Kovaryans, iki rastgele değişkenin beraber değişimlerini inceleyen bir istatistiktir. İki değişkenin birbirine benzer (eş) işlevli olması kovaryant; iki değişkenin birbirine zıt işlevli olması kontravaryant olarak ifade edilir.

Korelasyon, olasılık kuramı ve istatistikte iki rassal değişken arasındaki doğrusal ilişkinin yönünü ve gücünü belirtir. Genel istatistiksel kullanımda korelasyon, bağımsızlık durumundan ne kadar uzaklaşıldığını gösterir.

<span class="mw-page-title-main">Normal dağılım</span> sürekli olasılık dağılım ailesi

Normal dağılım, aynı zamanda Gauss dağılımı veya Gauss tipi dağılım olarak isimlendirilen, birçok alanda pratik uygulaması olan, çok önemli bir sürekli olasılık dağılım ailesidir.

<span class="mw-page-title-main">Matris (matematik)</span>

Matematikte matris veya dizey, dikdörtgen bir sayılar tablosu veya daha genel bir açıklamayla, toplanabilir veya çarpılabilir soyut miktarlar tablosudur. Dizeyler daha çok doğrusal denklemleri tanımlamak, doğrusal dönüşümlerde çarpanların takibi ve iki parametreye bağlı verilerin kaydedilmesi amacıyla kullanılırlar. Dizeylerin toplanabilir, çıkartılabilir, çarpılabilir, bölünebilir ve ayrıştırılabilir olmaları, doğrusal cebir ve dizey kuramının temel kavramı olmalarını sağlamıştır.

Olasılık kuramı ve istatistik bilim kollarında, multinom dağılımı binom dağılımının genelleştirilmesidir.

Olasılık kuramı ve istatistik bilim dalları içinde matris normal dağılımı tek değişebilirli normal dağılımının çok değişkenli olarak genelleştirilmesidir.

Olasılık kuramı ve istatistik bilim kollarında, çokdeğişirli normal dağılım veya çokdeğişirli Gauss-tipi dağılım, tek değişirli bir dağılım olan normal dağılımın çoklu değişirli hallere genelleştirilmesidir.

<span class="mw-page-title-main">Büyük sayılar yasası</span>

Büyük Sayılar Kanunu ya da Büyük Sayılar Yasası, bir rassal değişkenin uzun vadeli kararlılığını tanımlayan bir olasılık teoremidir. Sonlu bir beklenen değere sahip birbirinden bağımsız ve eşit dağılıma sahip bir rassal değişkenler örneklemi verildiğinde, bu gözlemlerin ortalaması sonuçta bu beklenen değere yakınsayacak ve bu değere yakın bir seyir izleyecektir.

<span class="mw-page-title-main">Log-normal dağılım</span>

Olasılık kuramı ve istatistik bilim dallarında log-normal dağılım logaritması normal dağılım gösteren herhangi bir rassal değişken için tek-kuyruklu bir olasılık dağılımdır. Eğer Y normal dağılım gösteren bir rassal değişken ise, bu halde X= exp(Y) için olasılık dağılımı bir log-normal dağılımdır; aynı şekilde eğer X log-normal dağılım gösterirse o halde log(X) normal dağılım gösterir. Logaritma fonksiyonu için bazın ne olduğu önemli değildir: Herhangi iki pozitif sayı olan ab ≠ 1 için eğer loga(X) normal dağılım gösterirse, logb(X) fonksiyonu da normaldir.

Olasılık kuramı bilim dalında matematiksel beklenti veya beklenen değer veya ortalama birçok defa tekrarlanan ve her tekrarda mümkün tüm olasılıklarını değiştirmeyen rastgele deneyler sonuçlarından beklenen ortalama değeri temsil eder. Bir ayrık rassal değişkennin alabileceği bütün sonuç değerlerin olasılıklarıyla çarpılması ve bu işlemin bütün değerler üzerinden toplanmasıyla elde edilen değerdir. Bir sürekli rassal değişken için rassal değişken ile olasılık yoğunluk fonksiyonunun çarpımının aralığı belirsiz integralidir. Fakat dikkat edilmelidir ki bu değerin genel pratik anlamla rasyonel olarak beklenmesi pek uygun olmayabilir, çünkü matematiksel beklentiin olasılığı çok düşük belki sıfıra çok yakın olabilir ve hatta pratikte matematiksel beklenti bulunmaz. Ağırlıklı ortalama olarak da düşünülebilir ki değerler ağırlık katsayıları verilen olasılık kütle fonksiyonu veya olasılık yoğunluk fonksiyonudur.

Vektör otoregresyon (VAR), tek değişkenli AR modellerini genelleştiren, çoklu zaman serileri arasındaki gelişimi ve karşılıklı bağımlılığı veren ekonometrik bir modeldir. Bir VAR'daki tüm değişkenler, modeldeki değişkenin kendi gecikmeleri ve diğer tüm değişkenlerin gecikmelerine bağlı olarak değişkenin gelişimini açıklayarak her bir değişken için bir denklem ile simetrik olarak ele alır. Bu özellik sebebiyle Christopher Sims, ekonomik ilişkilerin tahmininde teoriden bağımsız bir metot olarak VAR modelleri kullanımını, böylelikle yapısal modellerin "inanılmaz tanımlama kısıtlamalarına" bir alternatif olarak destekler.

<span class="mw-page-title-main">Boşuzay</span>

Doğrusal cebirde, bir matrisinin boşuzayı (kernel, null space) bağıntısını sağlayan tüm vektörlerinin oluşturduğu kümedir. Bir matrisinin 'boşuzay' boyutu, matrisine çarpıldığında sıfır sonucunu veren birbirinden bağımsız yöneylerine göre hesaplanır.

Doğrusal cebirde sütun vektör veya sütun matris, m × 1 matrisidir. Örneğin; tek bir m sütunundan oluşan bir matris şöyle ifade edilir;

<span class="mw-page-title-main">Kare matris</span>

Doğrusal cebirde, kare matris, satır ve sütun sayıları eşit olan bir matrisdir. n ye n lik bir matris, boyutu n olan bir kare matris olarak bilinir. Aynı boyuta sahip herhangi iki matriste, toplama ve çarpma işlemleri yapılabilir.

Doğrusal cebirde, satır vektör veya satır matris, 1 × m matrisidir. Örneğin; tek bir m sütunundan oluşan bir matris şöyle ifade edilir;

Doğrusal cebirde veya daha genel ifade ile matematikte matris çarpımı, bir matris çiftinde yapılan ve başka bir matris üreten ikili işlemdir. Reel veya karmaşık sayılar gibi sayılarda temel aritmetiğe uygun olarak çarpma yapılabilir. Başka bir ifade ile matrisler, sayı dizileridir. Bu yüzden, matris çarpımını ifade eden tek bir yöntem yoktur. "Matris çarpımı" terimi çoğunlukla, matris çarpımının farklı yöntemlerini ifade eder. Matris çarpımının anahtar özellikleri şunlardır: Asıl matrislerin satır ve sütun sayıları, ve matrislerin girişlerinin nasıl yeni bir matris oluşturacağıdır.

Successive Over-Relaxation (SOR) lineer denklem sistemlerini çözmek ve sonuca daha hızlı yakınsamak için sayısal lineer cebirde kullanılan bir çeşit Gauss-Seidel metodudur. Daha yavaş yakınsamalar içinse benzer bir metot olan iterative metot kullanılır.

<span class="mw-page-title-main">Jacobi matrisi</span>

Vektör hesabında, Jacobi matrisi bir vektör-değerli fonksiyonun bütün birinci-derece kısmi türevlerini içeren matristir. Bu matris bir kare matris olduğunda, yani fonksiyonun girdi sayısı çıktı sayısının vektör bileşenleriyle aynı sayıdaysa, bu matrisin determinantı Jacobi determinantı olarak adlandırılır. Literatürde sıklıkla Jacobi olarak anılır.