Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron) Teorem: (Kolmogorov 1957) ‘e bağlı olmayan monoton artan sürekli tek değişkenli fonksiyon sürekli tek değişkenli fonksiyon
Teoremin sonuçları..... Kolmogorov Teoremi bir varlık teoremi ‘i özel bir şekilde ifade edebileceğimizi söylüyor. ve ‘nin ne yapıda olduklarını ve kaç tanesinin yeterli olacağını söylüyor. Kolmogorov Teoremi bir varlık teoremi olduğundan nasıl belirlenir söylemiyor. Kolmogorov Teoreminde bazı şeylerden vazgeçelim; tam olmasın yaklaşık olsun ama fonksiyonları bilelim. Teorem: (Cybenko 1989) yeterince büyük herhangi bir sürekli sigmoid fonksiyon
İleri Yol Ağı ve Eğiticili Öğrenme Giriş vektörü Çıkış vektörü Gizli katmanlar Çıkış katmanı
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron) Ağ yapısı Giriş Gizli katman 1 Gizli katman 2 Çıkış giriş katmanı işlem yapan gizli katmanlar işlem yapan çıkış katmanı Nöron sürekli türetilebilir, lineer olmayan aktivasyon fonksiyonu var Eğitim eğiticili öğrenme Öğrenme algoritması geriye yayılım http://www.oscarkilo.net/wiki/images/8/84/Ffperceptron.png
- + Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor: (i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor
Geriye Yayılım Algoritması (Back-Propagation Algorithm) Verilenler: Eğitim Kümesi Hesaplananlar: Eğitim Kümesindeki l. çifte ilişkin çıkış katmanındaki j. nörondaki hata Nöron j için ani hata: Toplam ani hata: Neden sadece çıkış katmanı? Ortalama karesel hata: Ağdaki hangi büyüklüklere bağlı? Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle.
Yapılan: yerine ‘yi en azlamak Eğitim kümesindeki k. veri için ileri yolda hesaplananı yazalım: 1. Gizli Katman Çıkışı 2. Gizli Katman Çıkışı
Eğitim kümesindeki k. veri için hesaplanan toplam ani hata
Ağırlığın güncellenmesi “en dik iniş “ (steepest descent) Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Hangi yöntem? Ağırlığın güncellenmesi “en dik iniş “ (steepest descent)
Notasyona Dikkat!!!!! k eğitim kümesindeki kaçıncı veri olduğu aynı zamanda güncellemede bir iterasyon içinde kaçıncı defa güncellendiği çıkış katmanında j. nöron çıkışı gizli katmandaki i. nöron çıkışı Çıkış katmanı Yeni notasyon Gizli katmanın sayısı
Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor: (i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor Yerel gradyen
Çıkış katmanındaki tüm ağırlıkların güncellenmesi
gizli katman (gks-1)’deki j. nöron ile gizli katman (o)’daki i. nörona ilişkin ağırlığın güncellenmesi
Tanıdık birşeyler arayalım ilgilenilen ağırlığının toplam ani hataya etkisi Tanıdık birşeyler arayalım
Yerel gradyen
Herhangi bir gizli katmandaki yerel gradyen Gizli katmanındaki tüm ağırlıkların güncellenmesi Herhangi bir gizli katmandaki yerel gradyen
Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı için, ağırlık uzayında düzgün bir değişim gözlenecek öğrenme yavaş olacak büyük öğrenme hızlanacak salınım oluşacağından yakınsama mümkün olmayabilir Hızı artıralım ama salınım da olmasın. Bu mümkün mü?
Momentum Terimi HATIRLATMA Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA
Bu sistemin çözümü nereye gidiyor? A matrisinin özdeğerleri birim daire içinde ise girişin belirlediği değere A matrisinin özdeğerleri birim daire üstünde ise salınım yapan bir sistem A matrisinin özdeğerleri birim daire dışında ise sonsuza hatırlatmanın sonu Momentum terimi varken güncellemede ne oluyor ona bakalım
Ardışık iterasyonlarda aynı işaretli ise ‘nın genliği büyüyecek, ağırlıklardaki değişim büyük olacak. Ardışık iterasyonlarda farklı işaretli ise ‘nın genliği azalacak, ağırlıklardaki değişim küçük olacak Momentum teriminin gradyenin işaretinin değiştiği doğrultularda kararlı kılma etkisi var.
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.
Adaptif Öğrenme Hızı
Grup-Veri Uyarlamalı Eğitim “sequential mode” “on-line mode” “ pattern mode” “stochastic mode” Grup Uyarlamalı Eğitim “batch mode” Eğitim kümesindeki her örüntü ağa uyarlandıktan sonra ağırlıklar değiştiriliyor Eğitim kümesindeki tüm örüntüler ağa uyarlandıktan sonra ağırlıklar değiştiriliyor
Grup Uyarlamalı Veri uyarlamalı Amaç Ölçütü Her bağlantı için gereken bellek Örüntülerin ağa sunuluşu Algoritmanın yakınsaması Paralelliğin sağlanması Eğitim kümesinin fazlalıklı olması Algoritmanın basitliği Büyük boyutlu ve zor problemlerde etkin çözüm sağlanması
Geriye Yayılım Algoritmasının Yakınsaması Genlikte Ayrık Algılayıcıdaki gibi yakınsaması garanti değil. Ne zaman durduracağız? Kramer+Sangionanni-Vincentelli (1989) Çapraz değerlendirme (cross-validation) Eğitim Kümesi Yaklaşıklık Kümesi (estimation subset) Değerlendirme Kümesi (validation subset)
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.