Sunuyu indir
Sunum yükleniyor. Lütfen bekleyiniz
YayınlayanSerkan Gür Değiştirilmiş 8 yıl önce
1
Çıkış katmanındaki j. nöron ile gizli katmandaki i. nörona ilişkin ağırlığın güncellenmesi Ağırlığın güncellenmesi Hangi yöntem? “en dik iniş “ (steepest descent) Hatırlatma
2
Notasyona Dikkat!!!!! k eğitim kümesindeki kaçıncı veri olduğu aynı zamanda güncellemede bir iterasyon içinde kaçıncı defa güncellendiği çıkış katmanında j. nöron çıkışı gizli katmandaki i. nöron çıkışı Yeni notasyon Çıkış katmanı Gizli katmanın sayısı Hatırlatma
3
Gizli katman ve çıkış katmanındaki her nöron iki iş yapıyor: (i) nöron çıkışındaki işareti nöron girişindeki işaretler cinsinden hesaplıyor, (ii) gradyen vektörünü geriye yayılım için yaklaşık olarak hesaplıyor Hatırlatma Yerel gradyen
4
Çıkış katmanındaki tüm ağırlıkların güncellenmesi
5
gizli katman (gks-1)’deki j. nöron ile gizli katman (o)’daki i. nörona ilişkin ağırlığın güncellenmesi
6
ilgilenilen ağırlığının toplam ani hataya etkisi Tanıdık birşeyler arayalım
7
Yerel gradyen
8
Gizli katmanındaki tüm ağırlıkların güncellenmesi Herhangi bir gizli katmandaki yerel gradyen
9
Geriye Yayılım Algoritması Bazı İpuçları Öğrenme Hızı Öğrenme hızını belirleyen büyüklük küçük ağırlıklardaki değişim bir iterasyondan diğerine küçük olacağı için, ağırlık uzayında düzgün bir değişim gözlenecek öğrenme yavaş olacak büyüköğrenme hızlanacak salınım oluşacağından yakınsama mümkün olmayabilir Hızı artıralım ama salınım da olmasın. Bu mümkün mü?
10
Momentum Terimi Momentum terimi Bu ifade neyi anımsatıyor? Lineer zamanla değişmeyen ayrık zaman sistemi HATIRLATMA
11
Bu sistemin çözümü nereye gidiyor? A matrisinin özdeğerleri birim daire içinde ise girişin belirlediği değere A matrisinin özdeğerleri birim daire üstünde ise salınım yapan bir sistem A matrisinin özdeğerleri birim daire dışında ise sonsuza hatırlatmanın sonu Momentum terimi varken güncellemede ne oluyor ona bakalım
12
Ardışık iterasyonlarda aynı işaretli ise ‘nın genliği büyüyecek, ağırlıklardaki değişim büyük olacak. Ardışık iterasyonlarda farklı işaretli ise ‘nın genliği azalacak, ağırlıklardaki değişim küçük olacak Momentum teriminin gradyenin işaretinin değiştiği doğrultularda kararlı kılma etkisi var.
13
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.
14
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.
15
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.
16
Adaptif Öğrenme Hızı
17
Grup-Veri Uyarlamalı Eğitim Veri Uyarlamalı Eğitim “sequential mode” “on-line mode” “ pattern mode” “stochastic mode” Grup Uyarlamalı Eğitim “batch mode” Eğitim kümesindeki her örüntü ağa uyarlandıktan sonra ağırlıklar değiştiriliyor Eğitim kümesindeki tüm örüntüler ağa uyarlandıktan sonra ağırlıklar değiştiriliyor
18
Grup UyarlamalıVeri uyarlamalı Amaç Ölçütü Her bağlantı için gereken bellek Örüntülerin ağa sunuluşu Algoritmanın yakınsaması Paralelliğin sağlanması Eğitim kümesinin fazlalıklı olması Algoritmanın basitliği Büyük boyutlu ve zor problemlerde etkin çözün sağlanması
19
Geriye Yayılım Algoritmasının Yakınsaması Genlikte Ayrık Algılayıcıdaki gibi yakınsaması garanti değil. Ne zaman durduracağız? Kramer+Sangionanni-Vincentelli (1989) Çapraz değerlendirme (cross-validation) Eğitim Kümesi Yaklaşıklık Kümesi (estimation subset) Değerlendirme Kümesi (validation subset)
20
S. Haykin, “Neural Networks- A Comprehensive Foundation”, 2 nd Edition, Prentice Hall, 1999, New Jersey.
21
Hata Fonksiyonları Lojistik Fonksiyon ß ß Huber Fonksiyonu ß ß
22
Talvar Fonksiyonu ß ß
23
YSA Eğitilmiş YSA modeli Eğitim Kümesi Ölçekleme Geri Ölçekleme Ölçeklenmiş Veri Verilerin Ölçeklenmesi Doğrusal Ölçekleme: Logaritmik Ölçekleme:
24
Son İpuçları ‘ler büyük ise ağırlıkların değişim aralığı küçülür; fiziksel gerçeklemeye uygun olur. Ancak girişlerdeki gürültüye tolerans azalır. Ağırlıklar başlangıçta aynı seçilirse, değişimleri de aynı olabilir. Dolayısıyla ağırlıklar yenilendiğinde aynı kalabilirler. Bunu engellemek için başlangıç ağırlıkları sıfıra yakın sayılardan rastgele seçilmeli. Her katman eklendiğinde geriye yayılım algoritması yavaşlar. Bunu engellemek için girişten çıkışa doğrudan bağlantılar yapılabilir.
25
Geriye yayılım algoritması “en dik iniş” ve gradyen yönteme dayalı olduğundan, bu yöntemi iyileştirici tüm teknikler geriye yayılım algoritmasını da iyileştirmek için kullanılabilir. İkinci türevleri kullanan lineer olmayan eniyileme yöntemlerinden herhangi biri de kullanılabilir. SONLU ADIMDA GLOBAL MİNİMUMA YAKINSAMASI GARANTİ DEĞİLDİR.
26
T ve L harfini ayırt eden bir ağ Bu harfleri ağa nasıl sunacağız?25X1 boyutlu vektörler ile
27
Bu verilerin yanı sıra bozuk veriler de verelim....
28
Bir de test kümesi oluşturalım... Test kümesinde sağlam veriler ve eğitim kümesindekilerden farklı bozuk veriler olsun
Benzer bir sunumlar
© 2024 SlidePlayer.biz.tr Inc.
All rights reserved.