İçeriğe atla

Perceptron

Kontrol Edilmiş

Perceptron (Algılayıcı), tek katmanlı bir yapay sinir ağının temel birimidir. Eğitilebilecek tek bir yapay sinir hücresinden oluşmaktadır. Denetimli bir öğrenme algoritmasıdır. Bir perceptron giriş değerleri, ağırlıklar ve sapma, ağırlıklı toplam ve aktivasyon işlevi olmak üzere dört bölümden oluşmaktadır.[1] Hem giriş hem de çıkış değerleri verilir ve sinir ağının öğrenmesi beklenir.

Tarihçe

1957'de Cornell Havacılık Laboratuvarı'nda Amerikalı psikolog Frank Rosenblatt tarafından bulunmuştur. İlk olarak bir veya daha fazla girdi, bir işlemci ve yalnızca bir çıktıdan oluşmaktaydı. Rosenblatt'ın amacı biyolojik nörondan ve onun öğrenme yeteneğinden etkilendiği için bir nöron gibi davranan fiziksel bir makine yaratmaktı.

İlk uygulama IBM 704'te test edilmiş bir yazılımdı. Bu yazılım görüntü için kullanmak amacıyla özel yapım donanımlara uygulandı. Rosenblatt ve AI topluluğu yalnızca veri noktalarının doğrusal olarak ayrılmasıyla çalışabildiğini fark ettiler. Perceptron başlangıçta ümit verici görünse de, birçok model sınıfını tanımak için eğitilemediği kanıtlandı. Bu da ilginin azalmasına sebep olmuştur.[1]

Perceptron

Tanım

Yapay sinir ağlarının en küçük öğrenme birimi olan perceptronun matematiksel ifadesi aşağıdaki gibidir.

  • b: bias
  • w: ağırlık
  • x: giriş değeri
  • f(x): çıkış değeri[2]

Bu formülle hesaplanmak istenen modelin en iyi değeri vereceği w ve b parametrelerini hesaplamaktır. Perceptron Modeli'nin kullanılarak doğru bir sınıflandırma yapılabilmesi için öncelikle eşik değeri gereklidir. Eşik değeri problemden probleme göre değişebilmektedir. Eşik değeri sayesinde aktivasyon fonksiyon eğrisi yukarı veya aşağı kaydırılmaktadır. Böylece gerekli değerler arasındaki giriş eşlenebilir. Perceptron genellikle verilerin iki bölüme ayrılmasına olanak sağlar. Bu nedenle Doğrusal İkili Sınıflandırıcı olarak da adlandırılmaktadır.[3][4]

Öğrenme Algoritması

veri eklendikçe lineer sınırın değişimi

Perceptron öğrenme algoritmasının amacı, pozitif girdileri ve negatif girdileri doğru sınıflandırabilen bir karar sınırı (çizgi) oluşturmaktır. Doğru sınır değerine ulaşılması için girdi ve çıktı verilerinin fazla olması gerekmektedir.

  1. Ağırlık ve eşik değerleri başlatılmalıdır.
  2. Her bir veri için giriş üzerinden aşağıdaki adımları gerçekleştirilmelidir.
    1. Gerçek çıktı değerinin hesaplanması için:
    2. Ağırlık değerini güncellenmesi için:
  3. İkinci madde yineleme hatası alınana kadar işlem tekrarlanmalıdır.
    • [3][5]

x tanıtmak istenilen resmin matrisi, y tanıtılan resmin gerçekle olan benzerlik değeri, w ise elde edilen çıktı değerinin yükseltilmesi için kullanılmaktadır.

Model lineer olarak ayrılabilirse perceptron algoritmasının kesin sonuç üretmesi beklenir. Ancak sistem lineer olarak ayrılamıyorsa perceptron algoritması kötü sonuç üretecektir ve modeli sınıflandıramayacaktır.

Sınırlamalar

  1. Perceptron, doğrusal olmayan ayrılabilir veri noktalarını sınıflandıramaz.
  2. Çok katmanlı parametreleri içeren karmaşık problemler, Perceptronla çözülemez.
  3. Perceptron, lineer olmayan ayrılabilir veri noktalarını sınıflandıramaz.[6][7]

Yukarıda karşılaşılan problemlere çözüm için farklı yollarla bağlanan ve farklı aktivasyon fonksiyonlarında çalışan perceptronların bir bileşimi olan MultiLayer Perceptron kullanılmaktadır.

Kaynakça

  1. ^ a b "Perceptron nedir? - Sinir Ağlarının Temelleri". ICHI.PRO. 10 Mayıs 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 7 Mayıs 2021. 
  2. ^ Kara, Buse (22 Aralık 2019). "PERCEPTRON NEDİR ?". Medium (İngilizce). 7 Mayıs 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 7 Mayıs 2021. 
  3. ^ a b Chandra, Akshay L. (30 Mayıs 2020). "Perceptron Learning Algorithm: A Graphical Explanation Of Why It Works". Medium (İngilizce). 3 Ekim 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 7 Mayıs 2021. 
  4. ^ SHARMA, SAGAR (11 Ekim 2019). "What the Hell is Perceptron?". Medium (İngilizce). 28 Mayıs 2018 tarihinde kaynağından arşivlendi. Erişim tarihi: 7 Mayıs 2021. 
  5. ^ "öğrenme algoritması adımları". 10 Mart 2004 tarihinde kaynağından arşivlendi. 
  6. ^ Işıkhan, Elif (25 Aralık 2019). "Perceptron Nedir?". Medium (İngilizce). 7 Mayıs 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 7 Mayıs 2021. 
  7. ^ "Yapay Sinir Ağı Eğitimi – Çok Katmanlı Perceptron(Multi Layer Perceptron)". DEVHUNTER. 5 Temmuz 2018. 5 Mayıs 2021 tarihinde kaynağından arşivlendi. Erişim tarihi: 7 Mayıs 2021. 

İlgili Araştırma Makaleleri

<span class="mw-page-title-main">Türev</span> Fonksiyonun grafiğine çizilen teğetin eğimini hesaplama tekniğidir.

Matematikte türev, bir fonksiyonun tanımlı olduğu herhangi bir noktada değişim yönünü veya hızını veren temel bir kavramdır. Tek değişkenli bir fonksiyonun tanım kümesinin belli bir noktasında türevi, fonksiyonun grafiğine bu noktada karşılık gelen değerde çizilen teğet doğrunun eğimidir. Teğet doğru, tanım kümesinin bu noktasında fonksiyonun en iyi doğrusal yaklaşımıdır. Bu nedenle türev genellikle anlık değişim oranı ya da daha açık bir ifadeyle, bağımlı değişkendeki anlık değişimin bağımsız değişkendeki anlık değişime oranı olarak tanımlanır. Bir fonksiyonun türevini teorik olarak bulmaya türev alma denilir. Eğer bir fonksiyonun tanım kümesindeki her değerinde hesaplanan türev değerlerini veren başka bir fonksiyon varsa, bu fonksiyona eldeki fonksiyonun türevi denir.

Regresyon analizi, iki ya da daha çok nicel değişken arasındaki ilişkiyi ölçmek için kullanılan analiz metodudur. Eğer tek bir değişken kullanılarak analiz yapılıyorsa buna tek değişkenli regresyon, birden çok değişken kullanılıyorsa çok değişkenli regresyon analizi olarak isimlendirilir. Regresyon analizi ile değişkenler arasındaki ilişkinin varlığı, eğer ilişki var ise bunun gücü hakkında bilgi edinilebilir. Regresyon terimi için öz Türkçe olarak bağlanım sözcüğü kullanılması teklif edilmiş ise de Türk ekonometriciler arasında bu kullanım yaygın değildir.

<span class="mw-page-title-main">Adi diferansiyel denklem</span>

Matematikte adi diferansiyel denklem, tek değişkenli fonksiyonların türevlerini ilişkilendiren diferansiyel denklem çeşididir. Adi diferansiyel denklemler adı daha yaygındır. Kapalı olarak şeklinde gösterilirler. Bu ifadede denklemin derecesini gosterir.

<span class="mw-page-title-main">Açısal momentum</span> Fiziksel nicelik

Açısal momentum, herhangi bir cismin dönüş hareketine devam etme isteğinin bir göstergesidir ve bu nicelik cismin kütlesine, şekline ve hızına bağlıdır. Açısal momentum bir vektör birimidir ve cismin belirli eksenler üzerinde sahip olduğu dönüş eylemsizliği ile dönüş hızını ifade eder.

Doğrusal dönüşüm, bir fonksiyon çeşididir. T, M boyutlu bir vektörden N boyuta bir doğrusal dönüşüm ise, o zaman;

<span class="mw-page-title-main">Navier-Stokes denklemleri</span> Akışkanların hareketini tanımlamaya yarayan denklemler dizisi

Navier-Stokes denklemleri, ismini Claude-Louis Navier ve George Gabriel Stokes'tan almış olan, sıvılar ve gazlar gibi akışkanların hareketini tanımlamaya yarayan bir dizi denklemden oluşmaktadır.

Matematikte karmaşık sayı, bir gerçel bir de sanal kısımdan oluşan bir nesnedir. a ve b sayıları gerçek olursa karmaşık sayılar şu biçimde gösterilirler:

<span class="mw-page-title-main">Kütle merkezi</span>

Fizikte, uzaydaki ağırlığın dağılımının ağırlık merkezi, birbirlerine göre olan ağırlıkların toplamlarının sıfır olduğu noktadır. Ağırlık dağılımı, ağırlık merkezi etrafında dengelenir ve dağılan ağırlığın kütle pozisyon koordinatlarının ortalaması onun koordinatlarını tanımlar. Ağırlık merkezine göre formüle edildiği zaman mekanikte hesaplamalar basitleşir.

En küçük kareler yöntemi, birbirine bağlı olarak değişen iki fiziksel büyüklük arasındaki matematiksel bağlantıyı, mümkün olduğunca gerçeğe uygun bir denklem olarak yazmak için kullanılan, standart bir regresyon yöntemidir. Bir başka deyişle bu yöntem, ölçüm sonucu elde edilmiş veri noktalarına "mümkün olduğu kadar yakın" geçecek bir fonksiyon eğrisi bulmaya yarar. Gauss-Markov Teoremi'ne göre en küçük kareler yöntemi, regresyon için optimal yöntemdir.

Termodinamiğin(Isıldevinimin) ikinci yasası, izole sistemlerin entropisinin asla azalamayacağını belirtir. Bunun sebebini izole sistemlerin termodinamik dengeden spontane olarak oluşmasıyla açıklar. Buna benzer olarak sürekli çalışan makinelerin ikinci kanunu imkânsızdır.

Olasılık kuramı ve istatistik bilim dallarında birikimli dağılım fonksiyonu bir reel değerli rassal değişken olan Xin olasılık dağılımını tümüyle tanımlayan bir fonksiyondur. Olasılık dağılım fonksiyonu veya sadece dağılım fonksiyonu olarak da anılmaktadır. Her bir reel sayı olan x için X'in birikimli dağılım fonksiyonu şöyle ifade edilir:

<span class="mw-page-title-main">Doğrusal olmayan regresyon</span>

Doğrusal olmayan regresyon, istatistik bilimde gözlemi yapılan verilerin bir veya birden fazla bağımsız değişkenin model parametrelerinin doğrusal olmayan bileşiği olan ve bir veya daha çok sayıda bağımsız değişken ihtiva eden bir fonksiyonla modelleştirilmesini içeren bir regresyon (bağlanım) analizi türüdür. Veriler arka-arkaya yapılan yaklaşımlarla kurulan modele uydurularak çözümleme yapılır.

<span class="mw-page-title-main">Beta fonksiyonu</span>

Matematik'te, beta fonksiyonu, Euler integrali'nin ilk türüdür,

Boolean Formülü içerisinde; boolean değişkenleri, sabitler {0,1} ve işlemler {, , } içeren formüllerdir. Bu formüller, (bütün hepsi) ve belirleyicilerinin eklenmesiyle daha genel bir yapıya sokulabilir. ifadesi bütün x değişkenleri için Q formülü doğrudur anlamı taşımaktadır. Benzer bir şekilde; ifadesi ise bazı x değişkenleri için Q formülü doğrudur anlamı taşımaktadır.

<span class="mw-page-title-main">Gradyan</span>

Bir skaler alanın yön türevi (gradyan) artımın en çok olduğu yere doğru yönelmiş bir vektör alanını verir ve büyüklüğü değişimin en büyük değerine eşittir.

<span class="mw-page-title-main">Gözetimli öğrenme</span>

Gözetimli öğrenme ya da denetimli öğrenme, bilinen etiketler ve özellikler kullanarak bir fonksiyon öğrendiğimiz, makine öğreniminin önemli bir alt dalıdır. Bu yöntem, eğitim veri seti kullanılarak öğrenilen modelin, yeni ve bilinmeyen veri noktalarını doğru bir şekilde tahmin etmesini amaçlar.

<span class="mw-page-title-main">Lineer interpolasyon</span> eğri uydurma metodu

Lineer interpolasyon, lineer polinomlar kullanarak, verilerin bilindiği noktalardan yeni verilerin üretilmesini sağlayan bir eğri uydurma metodudur.

<span class="mw-page-title-main">Destek vektör makinesi</span>

Destek vektör makinesi, eğitim verilerindeki herhangi bir noktadan en uzak olan iki sınıf arasında bir karar sınırı bulan vektör uzayı tabanlı makine öğrenme yöntemi olarak tanımlanabilir.

Diğer bir adı sabitlerin değişimi olarak bilinir. Bu teknik homojen olmayan lineer diferansiyel denklemlerde partiküler (özel) çözümü bulmak için kullanılır.

Daha yaygın ismiyle Goldman denklemi olarak bilinen Goldman-Hodgkin-Katzl denklemi, hücre zarıfizyolojisinde, hücre zarından geçen tüm iyonları hesaba katarak hücre zarındaki ters potansiyeli belirlemek için kullanılır.