Sunuyu indir
YayınlayanMelek Aydoğdu Değiştirilmiş 8 yıl önce
1
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Teorem: (Kolmogorov 1957) ‘e bağlı olmayan monoton artan sürekli tek değişkenli fonksiyon sürekli tek değişkenli fonksiyon
2
Teoremin sonuçları..... Kolmogorov Teoremi bir varlık teoremi ‘i özel bir şekilde ifade edebileceğimizi söylüyor. ve ‘nin ne yapıda olduklarını ve kaç tanesinin yeterli olacağını söylüyor. Kolmogorov Teoremi bir varlık teoremi olduğundan nasıl belirlenir söylemiyor. Kolmogorov Teoreminde bazı şeylerden vazgeçelim; tam olmasın yaklaşık olsun ama fonksiyonları bilelim. Teorem: (Cybenko 1989) yeterince büyük herhangi bir sürekli sigmoid fonksiyon
3
İleri Yol Ağı ve Eğiticili Öğrenme
Giriş vektörü Çıkış vektörü Gizli katmanlar Çıkış katmanı
4
Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron)
Ağ yapısı Giriş Gizli katman 1 Gizli katman 2 Çıkış giriş katmanı işlem yapan gizli katmanlar işlem yapan çıkış katmanı Nöron sürekli türetilebilir, lineer olmayan aktivasyon fonksiyonu var Eğitim eğiticili öğrenme Öğrenme algoritması geriye yayılım
5
- + Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor:
(i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor
6
Geriye Yayılım Algoritması (Back-Propagation Algorithm)
Verilenler: Eğitim Kümesi Hesaplananlar: Eğitim Kümesindeki l. çifte ilişkin çıkış katmanındaki j. nörondaki hata Nöron j için ani hata: Toplam ani hata: Neden sadece çıkış katmanı? Ortalama karesel hata: Ağdaki hangi büyüklüklere bağlı? Verilen eğitim kümesi için, ortalama karesel hata ‘yı öğrenme performansının ölçütü olarak al ve bu amaç ölçütünü enazlayan parametreleri belirle.
7
Yapılan: yerine ‘yi en azlamak
Eğitim kümesindeki k. veri için ileri yolda hesaplananı yazalım: 1. Gizli Katman Çıkışı 2. Gizli Katman Çıkışı
8
Eğitim kümesindeki k. veri için hesaplanan toplam ani hata
9
Ağırlığın güncellenmesi “en dik iniş “ (steepest descent)
Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Hangi yöntem? Ağırlığın güncellenmesi “en dik iniş “ (steepest descent)
10
Notasyona Dikkat!!!!! k eğitim kümesindeki kaçıncı veri olduğu
aynı zamanda güncellemede bir iterasyon içinde kaçıncı defa güncellendiği çıkış katmanında j. nöron çıkışı gizli katmandaki i. nöron çıkışı Çıkış katmanı Yeni notasyon Gizli katmanın sayısı
11
Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor:
(i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor Yerel gradyen
12
Çıkış katmanındaki tüm ağırlıkların güncellenmesi
13
gizli katman (gks-1)’deki j. nöron ile gizli katman (o)’daki
i. nörona ilişkin ağırlığın güncellenmesi
14
Tanıdık birşeyler arayalım
ilgilenilen ağırlığının toplam ani hataya etkisi Tanıdık birşeyler arayalım
15
Yerel gradyen
16
Herhangi bir gizli katmandaki yerel gradyen
Gizli katmanındaki tüm ağırlıkların güncellenmesi Herhangi bir gizli katmandaki yerel gradyen
17
Geriye Yayılım Algoritması
Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı için, ağırlık uzayında düzgün bir değişim gözlenecek öğrenme yavaş olacak büyük öğrenme hızlanacak salınım oluşacağından yakınsama mümkün olmayabilir Hızı artıralım ama salınım da olmasın. Bu mümkün mü?
18
Momentum Terimi HATIRLATMA Momentum terimi Bu ifade neyi anımsatıyor?
Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA
19
Bu sistemin çözümü nereye gidiyor?
A matrisinin özdeğerleri birim daire içinde ise girişin belirlediği değere A matrisinin özdeğerleri birim daire üstünde ise salınım yapan bir sistem A matrisinin özdeğerleri birim daire dışında ise sonsuza hatırlatmanın sonu Momentum terimi varken güncellemede ne oluyor ona bakalım
20
Ardışık iterasyonlarda aynı işaretli ise ‘nın
genliği büyüyecek, ağırlıklardaki değişim büyük olacak. Ardışık iterasyonlarda farklı işaretli ise ‘nın genliği azalacak, ağırlıklardaki değişim küçük olacak Momentum teriminin gradyenin işaretinin değiştiği doğrultularda kararlı kılma etkisi var.
21
S. Haykin, “Neural Networks- A Comprehensive Foundation”,
2nd Edition, Prentice Hall, 1999, New Jersey.
22
S. Haykin, “Neural Networks- A Comprehensive Foundation”,
2nd Edition, Prentice Hall, 1999, New Jersey.
23
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.
24
Adaptif Öğrenme Hızı
25
Grup-Veri Uyarlamalı Eğitim
“sequential mode” “on-line mode” “ pattern mode” “stochastic mode” Grup Uyarlamalı Eğitim “batch mode” Eğitim kümesindeki her örüntü ağa uyarlandıktan sonra ağırlıklar değiştiriliyor Eğitim kümesindeki tüm örüntüler ağa uyarlandıktan sonra ağırlıklar değiştiriliyor
26
Grup Uyarlamalı Veri uyarlamalı Amaç Ölçütü Her bağlantı için gereken bellek Örüntülerin ağa sunuluşu Algoritmanın yakınsaması Paralelliğin sağlanması Eğitim kümesinin fazlalıklı olması Algoritmanın basitliği Büyük boyutlu ve zor problemlerde etkin çözüm sağlanması
27
Geriye Yayılım Algoritmasının Yakınsaması
Genlikte Ayrık Algılayıcıdaki gibi yakınsaması garanti değil. Ne zaman durduracağız? Kramer+Sangionanni-Vincentelli (1989) Çapraz değerlendirme (cross-validation) Eğitim Kümesi Yaklaşıklık Kümesi (estimation subset) Değerlendirme Kümesi (validation subset)
28
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2nd Edition, Prentice Hall, 1999, New Jersey.
Benzer bir sunumlar
© 2024 SlidePlayer.biz.tr Inc.
All rights reserved.