İçeriğe atla

Öznitelik (makine öğrenmesi)

Öznitelik, makine öğrenmesi ve örüntü tanıma alanlarında, gözlemlenen bir olgunun ölçülebilir bir niteliğidir.[1] Anlaşılır, ayırt edici ve bağımsız özellikler seçmek etkili örüntü tanıma, sınıflandırma ve regresyon algoritmaları için kritik bir adımdır. Özellikler genellikle sayısaldır ancak sentaktik örüntü analizinde kelimeler ve çizgeler de kullanılır. 

İşlenmemiş öznitelikler kümesi gereksiz öğeler içerebilir ve büyüklüğünden ötürü yönetilmesi zor olabilir. Bu yüzden, makine öğrenmesi ve örüntü tanıma uygulamalarından çoğu özniteliklerin bir alt kümesinin seçilmesini ya da yeni ve indirgenmiş bir öznitelikler kümesinin oluşturulmasını içerir. Kullanılacak özniteliklerin öğrenmeyi kolaylaştırması, genelliği ve yorumlanabilirliği artırması amaçlanır.

Özniteliklerin çıkarılması ya da seçilmesi öznitelik mühendisliği olarak adlandırılır. Birçok farklı ihtimalin deneylenmesi ve hazır yöntemler ile bir alan uzmanının önsezilerinin bir araya getirilmesini gerektirir.

Sınıflandırma

Bir sayısal öznitelikler kümesinin tanımlanması için öznitelik vektörü kullanılabilir. Bir öznitelik vektörü kullanılarak iki ihtimalli sınıflandırma yapılması (ayrıca bkz. perseptron) öznitelik vektörü ve bir ağırlıklar vektörünün skaler çarpımının alınması ve çarpım sonucunun bir eşik değeri ile karşılaştırılması ile mümkün olur.

Bir öznitelikler vektörü kullanılarak yapılan sınıflandırma algoritmalarından bazıları en yakın komşu sınıflandırması, yapay sinir ağları ve Bayes yaklaşımlarıdır.

Kaynakça

  1. ^ Bishop, Christopher (2006). Pattern recognition and machine learning. Berlin: Springer. ISBN 0-387-31073-8. 

İlgili Araştırma Makaleleri

<span class="mw-page-title-main">Makine öğrenimi</span> algoritmaların ve istatistiksel modellerin kullanımıyla bilgisayarların yapacakları işleri kendileri çözebilmeleri

Makine öğrenimi (ML), veriden öğrenebilen ve görünmeyen verilere genelleştirebilen ve dolayısıyla açık talimatlar olmadan görevleri yerine getirebilen istatistiksel algoritmaların geliştirilmesi ve incelenmesiyle ilgilenen, yapay zekâda akademik bir disiplindir. Makine öğrenimi, bilgisayarların deneyimlerinden öğrenerek karmaşık görevleri otomatikleştirmeyi sağlayan bir yapay zeka alanıdır. Bu, veri analizi yaparak örüntüler tespit etme ve tahminlerde bulunma yeteneğine dayanır. Son zamanlarda yapay sinir ağları, performans açısından önceki birçok yaklaşımı geride bırakmayı başardı.

Matematikte fonksiyon uzayı bir X kümesinden bir Y kümesine tanımlı fonksiyonların oluşturduğu kümeye verilen bir addır. Fonksiyonlar kümesi yerine fonksiyon uzayı denilmesinin nedeni matematiğin kendi içindeki uygulamalarında bu kümenin genellikle topolojik uzay veya vektör uzayı olarak ortaya çıkmasıdır.

<span class="mw-page-title-main">Naive Bayes sınıflandırıcısı</span>

Naïve Bayes sınıflandırıcı, örüntü tanıma problemine ilk bakışta oldukça kısıtlayıcı görülen bir önerme ile kullanılabilen olasılıksal bir yaklaşımdır. Bu önerme, örüntü tanımada kullanılacak her bir tanımlayıcı öznitelik ya da parametrenin istatistik açıdan bağımsız olması gerekliliğidir. Her ne kadar bu önerme Naive Bayes sınıflandırıcının kullanım alanını kısıtlasa da istatistik bağımsızlık koşulu esnetilerek kullanıldığında da daha karmaşık yapay sinir ağları gibi metotlarla karşılaştırabilir sonuçlar vermektedir. Bir Naive Bayes sınıflandırıcı, her özniteliğin birbirinden koşulsal bağımsız olduğu ve öğrenilmek istenen kavramın tüm bu özniteliklere koşulsal bağlı olduğu bir Bayes ağı olarak da düşünülebilir.

Sayısal görüntü işleme bilgisayar algoritmaları kullanarak sayısal resimler üzerinde görüntü işlemenin gerçekleştirilmesidir. Sayısal sinyal işlemenin bir alt konusu olarak kabul edilen sayısal görüntü işleme, analog görüntü işlemeye göre birçok avantaja sahiptir. Sayısal görüntü işlemede giriş verilerine uygulanabilecek algoritmalar daha fazladır ve analog görüntü işlemeye göre işlem sırasında ortaya çıkabilecek gürültü artışı ya da sinyal bozulması gibi problemler önlenebilir. Görüntüler iki boyuttan daha fazla boyutta tanımlanabildiğinden beri sayısal görüntü işleme çok boyutlu sistemler şekline modellenebilmektedir.

<span class="mw-page-title-main">Gözetimli öğrenme</span>

Gözetimli öğrenme ya da denetimli öğrenme, bilinen etiketler ve özellikler kullanarak bir fonksiyon öğrendiğimiz, makine öğreniminin önemli bir alt dalıdır. Bu yöntem, eğitim veri seti kullanılarak öğrenilen modelin, yeni ve bilinmeyen veri noktalarını doğru bir şekilde tahmin etmesini amaçlar.

<span class="mw-page-title-main">Öznitelik çıkarımı</span>

Makine öğrenimi, örüntü tanıma ve görüntü işleme alanlarında kullanılan öznitelik çıkarımı, girdi olarak verilen ölçülmüş verileri kullanarak türetilmiş değerler (öznitelikler) oluşturur. Türetilen değerlerin bilgilendirici ve artıksız olması, öğrenme sürecini kolaylaştırıcı olması ve bazı durumlarda insan uzmanlar tarafından daha iyi anlaşılabilir (yorumlanabilir) olması amaçlanır. Öznitelik çıkarımı, boyut indirgeme konusuyla ilişkilidir.

Tarih boyunca matematiğin konu çeşitliliği ve derinliği artmaktadır, matematiği kavrama, birçok konuyu matematiğin daha genel alanlarına göre sınıflandırma ve düzenleme için bir sistem gerektirir. Bir dizi farklı sınıflandırma şeması ortaya çıkmıştır ve bazı benzerlikleri paylaşsalar da, kısmen hizmet ettikleri farklı amaçlara bağlı olarak farklılıkları vardır. Ek olarak, matematik geliştirilmeye devam ettikçe, bu sınıflandırma şemaları da yeni oluşturulan alanları veya farklı alanlar arasında yeni keşfedilen bağlantıları dikkate alacak şekilde değişmelidir. Farklı alanlar arasındaki sınırı aşan, genellikle en aktif olan bazı konuların sınıflandırılması daha zor hale gelir.

İlişkisel veritabanı, 1970 yılında Edgar Frank Codd tarafından önerildiği gibi, organizasyonu ilişkisel veri modeline dayanan bir dijital veritabanıdır. İlişkisel veritabanlarını korumak için kullanılan çeşitli yazılım sistemleri bir ilişkisel veritabanı yönetim sistemi (RDBMS) olarak bilinir. Neredeyse tüm ilişkisel veritabanı sistemleri, sorgulama ve veritabanının bakımı için dil olarak SQL(Structured Query Language) kullanmaktadırlar.

<span class="mw-page-title-main">Bilimsel hesaplama</span>

Bilimsel hesaplama karmaşık problemleri anlamak ve çözmek için gelişmiş bilgi işlem yeteneklerini kullanan çok disiplinli bir alandır. Hesaplamalı bilim üç farklı unsuru birleştirmektedir:

Bilgisayar bilimi, matematiksel modelleme ve problem çözme yaklaşımlarında köklü bir değişim geçirmektedir. İlk bilgisayar bilimcileri öncelikle ayrık matematik ile ilgilenmişlerdir. Bu dönemde grafikler, ağaçlar ve sonlu sayıda veri seti içeren diziler gibi yapılara odaklanmışlardır. Hızlı kayan noktalı işlemleri "büyük veriler" ile birlikte icra etmeye çalışmışlardır. Üç boyutlu taramanın ve diğer yoğun girdi kaynaklarının gerçeklenmesi modern bilgisayar bilimi pratisyenleri ve mühendisleri tarafından mümkün kılınmıştır. Buna paralel olarak gerçek değere yakın veriyi işlemek ve anlamak için sağlam yöntemler tasarlama ihtiyacı da doğmuştur. Bu ihtiyacın karşılanması için bilgisayar bilimcileri, özellikle ayrık matematik, çok değişkenli hesap, lineer cebir gibi alanlarda bilgi ve tecrübelerini kullanmalıdırlar.

<span class="mw-page-title-main">Destek vektör makinesi</span>

Destek vektör makinesi, eğitim verilerindeki herhangi bir noktadan en uzak olan iki sınıf arasında bir karar sınırı bulan vektör uzayı tabanlı makine öğrenme yöntemi olarak tanımlanabilir.

<span class="mw-page-title-main">Derin öğrenme</span> Makine öğreniminin bir branşı

Derin öğrenme bir veya daha fazla gizli katman içeren yapay sinir ağları ve benzeri makine öğrenme algoritmalarını kapsayan çalışma alanıdır.

<span class="mw-page-title-main">İstatistiki sınıflandırma</span>

Makine öğrenmesi ve istatistik alanlarında, sınıflandırma problemi, yeni bir gözlemin bir kategori kümesinden hangisine ait olduğunu, temel gözlemlerden ve bilinen kategorilerinden oluşan bir çalıştırma seti kullanarak bulunması şeklindedir. veri içeren gözlemler olan kategori üyeliği olduğu biliniyor. Buna örnek olarak, e-postaların gerekli ya da gereksiz olarak sınıflandırılması veya bir hastalık teşhisinin hastanın gözlemlenen karakteristiklerinden yararlanılarak bulunması verilebilir. Sınıflandırma, örüntü tanımaya örnek teşkil eder.

<span class="mw-page-title-main">Kümeleme analizi</span>

Küme analizi veya kümeleme, bir nesne kümesini gruplama problemidir. Bu problemde, nesnelerin aynı kümede (salkımda) yer alması için diğer kümelerdeki elemanlardan ziyade herhangi bir şekilde birbirine daha benzer olması gerekmektedir. Veri madenciliğinin ana problemlerinden biri olup, istatistikî veri analizinde de yaygın olarak kullanılan bir tekniktir. Makine öğrenimi, örüntü tanıma, görüntü analizi, bilgi erişimi, biyoenformatik, veri sıkıştırma ve bilgisayar grafikleri alanlarında da kullanımı mevcuttur.

<span class="mw-page-title-main">Gram–Schmidt işlemi</span>

Matematikte, özellikle doğrusal cebir ve sayısal analizde, Gram–Schmidt süreci bir dizi vektörleri bir iç çarpım uzayı içinde ortonormal etmek için kullanılan bir yöntemdir. İç çarpım uzayında olan vektörler, genellikle Öklid uzayında Rn donatılmış olan standart iç çarpım vektörlerdir. Gram–Schmidt süreci bir sonlu, doğrusal bağımsız kümeni, S = {v1, ..., vk}, kn, alıp ve R'in aynı k-boyutlu alt uzayında yayılan ortogonal kümeni, S′ = {u1, ..., uk}, üretmektedir. 

<span class="mw-page-title-main">Boyut indirgeme</span>

Veri biliminde, boyut indirgeme, bir verinin yüksek boyutlu bir uzaydan, düşük boyutlu bir uzaya, anlamını kaybetmeyecek şekilde dönüştürülmesidir. Yüksek boyutlu bir veriyi işlemek daha fazla işlem yükü gerektirir. Bu yüzden, yüksek sayıda gözlemin ve değişkenin incelendiği sinyal işleme, konuşma tanıma, nöroinformatik, biyoinformatik gibi alanlarda boyut indiremesi sıkça kullanılır.

<span class="mw-page-title-main">Veri bilimi</span> verilerden bilgi ve içgörü elde etmeye odaklanan disiplinler arası çalışma alanı

Veri bilimi, yapılandırılmış ve yapılandırılmamış verilerden bilgi ve öngörü elde etmek için bilimsel yöntemleri, süreçleri, algoritmaları ve sistemleri kullanan çok disiplinli bir alandır. Veri bilimi veri madenciliği ve büyük verilerle ilişkilidir.

Adaptif rezonans teorisi (ART), Stephen Grossberg ve Gail Carpenter tarafından beynin bilgiyi nasıl işlediğini anlamak üzere geliştirilen bir teoridir. Denetimli ve denetimsiz öğrenme yöntemlerini kullanan ve örüntü tanıma ve tahmin gibi sorunları ele alan bir dizi sinir ağı modelini açıklamaktadır.

<span class="mw-page-title-main">Otomatik makine öğrenimi</span>

Otomatik makine öğrenimi (AutoML), makine öğrenimini gerçek dünya sorunlarına uygulanmasını otomatikleştirme sürecidir.

Görüntü alma sistemi, geniş bir dijital görüntü veritabanından görüntülere göz atmak, aramak ve almak için kullanılan bir bilgisayar sistemidir. Görüntü almanın en geleneksel ve yaygın yöntemleri, görüntülere resim yazısı, anahtar sözcükler, başlık veya açıklamalar gibi meta veriler eklemeye yönelik bazı yöntemleri kullanır, böylece erişim açıklama sözcükleri üzerinden gerçekleştirilebilir. Görüntüye manuel açıklama eklemek zaman alıcı, zahmetli ve pahalıdır; Bu sorunu çözmek için otomatik görüntü açıklaması üzerine çok sayıda araştırma yapılmıştır. Ek olarak, sosyal web uygulamalarının ve anlamsal webin artması, birçok web tabanlı görsel açıklama aracının geliştirilmesine ilham kaynağı olmuştur.