Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron) Ağ yapısı Giriş Gizli katman 1 Gizli katman 2 Çıkış giriş katmanı işlem yapan gizli katmanlar işlem yapan çıkış katmanı Nöron sürekli türetilebilir, lineer olmayan aktivasyon fonksiyonu var Eğitim eğiticili öğrenme Öğrenme algoritması geriye yayılım http://www.oscarkilo.net/wiki/images/8/84/Ffperceptron.png
- + Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor: (i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor
Geriye Yayılım Algoritması (Back-Propagation Algorithm) Verilenler: Eğitim Kümesi Hesaplananlar: Eğitim Kümesindeki l. çifte ilişkin çıkış katmanındaki j. nörondaki hata Nöron j için ani hata: Toplam ani hata: Neden sadece çıkış katmanı? Ortalama karesel hata: Ağdaki hangi büyüklüklere bağlı?
Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle. EK BİLGİ Bazı Eniyileme (Optimizasyon) Teknikleri Eniyileme problemi Kısıtlar: Kısıtsız Eniyileme Problemi
‘in ekstremum noktası ise Teorem: 1. Mertebeden gerek koşul ‘in ekstremum noktası ise Teorem: 2. Mertebeden yeter koşul kesin pozitif Nasıl hesaplanır? ‘in minimum noktasıdır. Doğrultu Belirleme (Line Search) Algoritması başlangıç noktasını belirle doğrultusunu belirle ‘yı ‘ya göre enazlayan ‘yı belirle doğrultusunu belirle
Algoritma fonksiyonu enazlayan ‘a yakınsayacak Amaç: Beklenti: Algoritma fonksiyonu enazlayan ‘a yakınsayacak Ne zaman sona erdilecek? doğrultusunu belirle Nasıl ? “en dik iniş “ (steepest descent) Newton Metodu Gauss-Newton Metodu Bu doğrultuların işe yaradığını nasıl gösterebiliriz?
“En dik iniş “ (steepest descent) Metodu ile sağlanır mı? ‘yı hesaplamanın bir yolu ne olabilir? ‘yı civarında Taylor serisine açalım. Sonuç: ‘a yakınsayacak Yakınsamayı belirleyecek
1. Mertebeden gerek koşul Özel durum: Kuadratik 1. Mertebeden gerek koşul Bu herzaman mümkün mü? Kuadratik ise Uygun ‘yı belirlemenin bir yolu var mı? 7. Sayfayı Hatırlayın ‘yı ‘ya göre enazlayan ‘yı belirle Nasıl?
‘yı civarında Taylor serisine açalım. Newton Metodu ile sağlanır mı? ‘yı civarında Taylor serisine açalım. Bu yeni terimlere neden ihtiyaç duyduk?
Kesin Pozitif ise Sonuç: ‘a yakınsayacak Gauss-Newton Metodu ile sağlanır mı? Kısıtlama:
Gauss-Newton Metodu’nun amacı özel bir için Hessian matrisini kullanmadan 2. mertebe yöntem kadar iyi sonuç elde etmek. Bu ifade aslında nedir?
varsa Sonuç: ‘a yakınsayacak EK BİLGİNİN SONU Amaç: Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle. Toplam ani hata: Ortalama karesel hata:
Yapılan: yerine ‘yi en azlamak Eğitim kümesindeki k. veri için ileri yolda hesaplananı yazalım: 1. Gizli Katman Çıkışı 2. Gizli Katman Çıkışı
Eğitim kümesindeki k. veri için hesaplanan toplam ani hata
Ağırlığın güncellenmesi “en dik iniş “ (steepest descent) Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Hangi yöntem? Ağırlığın güncellenmesi “en dik iniş “ (steepest descent)
Notasyona Dikkat!!!!! k eğitim kümesindeki kaçıncı veri olduğu aynı zamanda güncellemede bir iterasyon içinde kaçıncı defa güncellendiği çıkış katmanında j. nöron çıkışı gizli katmandaki i. nöron çıkışı Çıkış katmanı Yeni notasyon Gizli katmanın sayısı